NVIDIA RTX PRO 6000 Blackwell Max-Q GPU-Server jetzt verfügbar | INTROSERV
EUR
european

EUR

usa

USD

German De
Ex. VAT Ex. VAT 0%
server server

NVIDIA RTX PRO 6000 Blackwell Max-Q GPU-Server jetzt verfügbar

Die NVIDIA RTX PRO 6000 Blackwell Max-Q, ein professioneller Grafikprozessor der Spitzenklasse, ist jetzt verfügbar. Diese Hochleistungskonfiguration wird in den Niederlanden hergestellt und ist für anspruchsvolle KI-, Rendering- und HPC-Aufgaben konzipiert. Die Bereitstellung ist ab sofort für jedes unternehmenskritische Projekt möglich.

Vollständige Serverkonfiguration

CPU: AMD EPYC 9355P

32 Kerne, 64 Threads, 3.55/4.4GHz

Speicher: 128GB REG ECC DDR5 (768GB max.)

Speicher: 960 GB Enterprise NVMe SSD (bis zu 2x PCIe & 6x SATA)

GPU: NVIDIA RTX PRO 6000 Blackwell Max-Q - 96GB DDR7 (bis zu 4x)

Port: 1 Gbps - 50TB Datenverkehr (Bis zu 10Gbps - Ungemessen)

IP-KVM: Asus BMC

Ab 1141,7 €/Monat (Ex. MwSt.)

Die Plattform: ASUS ESC4000A-E12

Die Grundlage dieses Builds ist der ASUS ESC4000A-E12 - ein 2U-GPU-Server, der für dichte Multi-GPU-Bereitstellungen entwickelt wurde. Er unterstützt bis zu vier Dual-Slot-GPUs mit unabhängigen CPU- und GPU-Luftstromtunneln zur thermischen Optimierung. Das Gehäuse arbeitet mit PCIe 5.0 über acht Erweiterungssteckplätze, wodurch sich die Datenbandbreite zwischen CPU und GPU im Vergleich zur Vorgängergeneration effektiv verdoppelt - ein entscheidender Faktor beim Verschieben umfangreicher KI-Datensätze zwischen Speicherbereichen.

Zu den Funktionen für Unternehmen gehören OCP 3.0-Netzwerke, ASUS ASMB11-iKVM-Fernverwaltung und Root-of-Trust-Sicherheit auf Hardwareebene. Das System wird mit einem redundanten Netzteil betrieben, das einen unterbrechungsfreien Betrieb auch bei einem Ausfall des Netzteils gewährleistet - ein Muss für KI- und HPC-Workloads in der Produktion. Das Single-Socket-Design sorgt für einen geringen Stromverbrauch und lässt gleichzeitig genügend Spielraum für Multi-GPU-Erweiterungen.

Die CPU: AMD EPYC 9355P

Der Server läuft auf dem AMD EPYC 9355P - einem 32-Core-Zen5-Prozessor mit einem 12-Kanal-DDR5-Speicher-Controller, der bis zu 768 GB ECC-registrierten Arbeitsspeicher mit bis zu 6400 MHz unterstützt. Die CPU-Seite wird nie zum Engpass bei der Vorbereitung von Inferenz-Warteschlangen oder beim Mischen von Trainingsbatches. Die aktuelle Basiskonfiguration wird mit 128 GB REG ECC DDR5 ausgeliefert und kann auf Wunsch vor Ort erweitert werden.

Die Speicherkapazität beginnt bei einer 960 GB Enterprise NVMe SSD (2x 7,68 TB max.) und lässt sich auf sechs 7,68 TB Enterprise SSDs oder sechs HDDs mit jeweils bis zu 16 TB skalieren - schneller lokaler Zugriff auf große Datensätze ohne Rückgriff auf Netzwerkspeicher.

Der Grafikprozessor: NVIDIA RTX PRO 6000 Blackwell Max-Q

Das Herzstück dieses Servers ist die NVIDIA RTX PRO 6000 Blackwell Max-Q - die dichteoptimierte Variante des professionellen GPU-Flaggschiffs von NVIDIA. Sie basiert auf der Blackwell-Architektur und bietet Tensor-Cores der 5. Generation, RT-Cores der 4. Generation und 24064 CUDA-Cores in einem 300-W-Dual-Slot-Formfaktor.

Die GPU verfügt über 96 GB GDDR7-Speicher mit einer Bandbreite von 1792 GB/s. Große Sprachmodelle, für die bisher mehrere L40 benötigt wurden, können nun auf einer einzigen Karte ausgeführt werden. Bei einer Skalierung auf bis zu vier GPUs erhalten Sie insgesamt 384 GB Speicher mit hoher Bandbreite in einem einzigen 2U-Gehäuse.

Wichtige Architekturmerkmale:

  • Tensor Cores der 5. Generation mit FP4-Präzision und DLSS 4 Multi Frame Generation

  • RT-Kerne der 4. Generation - bis zu 100-mal mehr Raytracing-Dreiecke (RTX Mega Geometry)

  • Multi-Instance GPU (MIG): bis zu 4 vollständig isolierte Instanzen pro Karte (jeweils 24 GB)

  • PCIe Gen 5 - 2× mehr Bandbreite als PCIe Gen 4

  • NVENC der 9. Generation + NVDEC der 6. Generation mit 4:2:2 H.264/HEVC-Unterstützung

  • 3511 AI TOPS bei FP4-Präzision

Wofür ist dieser Server gebaut?

AI-Inferenz & LLM-Dienstleistung

Führen Sie 70B-Parameter-Modelle in FP8/FP4-Quantisierung auf einer einzigen GPU aus - kein Multi-Card-Setup erforderlich. Setzen Sie vLLM oder TensorRT-LLM mit FP4-Quantisierung für höchsten Durchsatz ein. Die MIG-Partitionierung ermöglicht die gleichzeitige Ausführung von bis zu 4 vollständig isolierten Modellinstanzen (jeweils 24 GB) auf einem einzigen Grafikprozessor.

AI-Modell-Feinabstimmung

Feinabstimmung von Transformatormodellen mit voller Präzision (praktisch für Modelle bis zu ~13B), LoRA- oder QLoRA-Strategien für größere Architekturen. Der 96 GB große Framebuffer eignet sich für große Stapel, die von kleineren GPUs nicht bewältigt werden können, und reduziert den Synchronisationsaufwand und die Komplexität von Multi-GPUs.

Generative KI und Medienproduktion

Workflows zur Generierung von Bild-, Video- und 3D-Inhalten profitieren direkt von Blackwells Tensor Cores der 5ten Generation. Text-zu-Video-Pipelines liefern einen bis zu 3,3fach höheren Durchsatz im Vergleich zu L40S. NVENC/NVDEC mit 4:2:2 H.264- und HEVC-Unterstützung deckt professionelle Broadcast- und Streaming-Pipelines ab.

Biowissenschaften und HPC

Genomische Sequenzierung, Medikamentenentwicklung und Proteinstrukturvorhersage werden um ein Vielfaches beschleunigt. NVIDIA Parabricks führt Keimbahnanalyse-Pipelines bei denselben Aufgaben bis zu 1,75 Mal schneller aus als H100.

3D-Rendering und Visualisierung

RTX Mega Geometry ermöglicht bis zu 100-mal mehr ray-traced Dreiecke pro Szene. Komplexe Architekturvisualisierung, VFX-Compositing und virtuelle Produktions-Workflows in Echtzeit werden alle nativ von der GPU beschleunigt.

Datenwissenschaft und Analytik

RAPIDS- und CUDA-X-beschleunigte Pipelines profitieren sowohl vom großen VRAM-Puffer als auch von der PCIe 5.0-Bandbreite. Verarbeiten Sie Datensätze, die typische GPU-Speichergrenzen überschreiten würden - und skalieren Sie auf vier GPUs, wenn die Arbeitslasten wachsen.

Geben Sie sich nicht mit Standardspezifikationen zufrieden. Passen Sie dieses Blackwell-Kraftpaket mit erweitertem RAM, Multi-GPU-Arrays oder massiven Speicher-Upgrades genau an Ihre Anforderungen an. Optional ist eine ungemessene Hochgeschwindigkeits-Bandbreite von 10 Gbit/s erhältlich, damit Ihre Daten nie auf einen Engpass stoßen.


Erkunden Sie die gesamte GPU-Server-Produktpalette!

Neue Stellen

VAT

  • Other

    Ex. VAT

    0%
  • austria

    Austria

    20%
  • Belgium

    Belgium

    21%
  • Bulgaria

    Bulgaria

    20%
  • Croatia

    Croatia

    25%
  • Cyprus

    Cyprus

    19%
  • Czech Republic

    Czech Republic

    21%
  • Denmark

    Denmark

    25%
  • Estonia

    Estonia

    22%
  • France

    France

    20%
  • Finland

    Finland

    24%
  • Germany

    Germany

    19%
  • Greece

    Greece

    24%
  • Hungary

    Hungary

    27%
  • Ireland

    Ireland

    23%
  • Italy

    Italy

    22%
  • Latvia

    Latvia

    21%
  • Lithuania

    Lithuania

    21%
  • Luxembourg

    Luxembourg

    17%
  • Malta

    Malta

    18%
  • Netherlands

    Netherlands

    21%
  • Poland

    Poland

    23%
  • Portugal

    Portugal

    23%
  • Romania

    Romania

    19%
  • Slovakia

    Slovakia

    20%
  • Slovenia

    Slovenia

    22%
  • Spain

    Spain

    21%
  • Sweden

    Sweden

    25%
  • USA

    USA

    0%
european
states
  • germany
  • Español
  • Italiano
  • Poland
  • Русский
  • Slovenski
  • Türkçe
  • ukraine
  • kingdom
  • French
  • Hrvatska
  • Other
  • Austria
  • Belgium
  • Bulgaria
  • Croatia
  • Cyprus
  • Czech Republic
  • Denmark
  • Estonia
  • Finland
  • France
  • Germany
  • Greece
  • Hungary
  • Ireland
  • Italy
  • Latvia
  • Lithuania
  • Luxembourg
  • Malta
  • Netherlands
  • Poland
  • Portugal
  • Romania
  • Slovakia
  • Slovenia
  • Spain
  • Sweden
  • USA