Ya están disponibles los servidores con GPU NVIDIA RTX PRO 6000 Blackwell Max-Q
Ya está disponible la NVIDIA RTX PRO 6000 Blackwell Max-Q, una GPU profesional de primer nivel. Ubicada en los Países Bajos, esta configuración de alto rendimiento está diseñada para tareas de IA, renderizado y HPC de élite. Ya está disponible para cualquier proyecto de misión crítica.
Configuración completa del servidor
CPU: AMD EPYC 9355P
32 núcleos, 64 subprocesos, 3,55/4,4 GHz
Memoria: 128 GB REG ECC DDR5 (768 GB máx.)
Almacenamiento: 960 GB Enterprise NVMe SSD (hasta 2 PCIe y 6 SATA)
GPU: NVIDIA RTX PRO 6000 Blackwell Max-Q - 96 GB DDR7 (hasta 4x)
Puerto: 1 Gbps - 50 TB de tráfico (hasta 10 Gbps - sin medición)
IP-KVM: Asus BMC
A partir de 1141,7 euros/mes (sin IVA)
La plataforma: ASUS ESC4000A-E12
La base de esta construcción es el ASUS ESC4000A-E12 - un servidor GPU 2U diseñado para densas implementaciones multi-GPU. Admite hasta cuatro GPU de doble ranura con túneles de flujo de aire independientes para CPU y GPU para la optimización térmica. El chasis ejecuta PCIe 5.0 a través de ocho ranuras de expansión, lo que duplica el ancho de banda de datos de CPU a GPU en comparación con la generación anterior, algo fundamental a la hora de mover conjuntos de datos de IA masivos entre espacios de memoria.
Las características de nivel empresarial incluyen redes OCP 3.0, gestión remota ASUS ASMB11-iKVM y seguridad Root-of-Trust a nivel de hardware. El sistema funciona con una fuente de alimentación redundante, lo que garantiza un funcionamiento ininterrumpido incluso en caso de fallo de la fuente de alimentación, algo imprescindible para las cargas de trabajo de IA y HPC en producción. El diseño de un solo zócalo mantiene el consumo de energía centrado, al tiempo que deja espacio suficiente para la expansión multi-GPU.
La CPU: AMD EPYC 9355P
El servidor funciona con AMD EPYC 9355P, un procesador Zen 5 de 32 núcleos con un controlador de memoria DDR5 de 12 canales que admite hasta 768 GB de RAM registrada ECC a 6400 MHz. La CPU nunca se convierte en un cuello de botella cuando se preparan colas de inferencia o se barajan lotes de entrenamiento. La configuración básica actual incluye 128 GB REG ECC DDR5, con posibilidad de ampliación bajo demanda.
El almacenamiento comienza con un SSD NVMe empresarial de 960 GB (2 x 7,68 TB máx.) y se amplía a seis SSD empresariales de 7,68 TB o seis discos duros de hasta 16 TB cada uno: acceso local rápido a grandes conjuntos de datos sin depender del almacenamiento en red.
La GPU: NVIDIA RTX PRO 6000 Blackwell Max-Q
El corazón de este servidor es la NVIDIA RTX PRO 6000 Blackwell Max-Q, la variante optimizada para la densidad del buque insignia de las GPU profesionales de NVIDIA. Basada en la arquitectura Blackwell, incorpora núcleos tensoriales de 5ª generación, núcleos RT de 4ª generación y 24064 núcleos CUDA en un formato de doble ranura de 300 W.
La GPU incorpora 96 GB de memoria GDDR7 con un ancho de banda de 1792 GB/s. Los grandes modelos lingüísticos que antes requerían varias L40 ahora pueden ejecutar la inferencia en una sola tarjeta. Si se amplía a cuatro GPU, se obtiene una combinación de 384 GB de memoria de gran ancho de banda en un único chasis 2U.
Características arquitectónicas clave:
-
Tensor Cores de5ª generación con precisión FP4 y DLSS 4 Multi Frame Generation
-
Núcleos RT de 4ª generación: hasta 100 veces más triángulos trazados por rayos (RTX Mega Geometry)
-
GPU multiinstancia (MIG): hasta 4 instancias totalmente aisladas por tarjeta (24 GB cada una)
-
PCIe Gen 5: 2 veces más ancho de banda que PCIe Gen 4
-
NVENC de 9ª generación + NVDEC de 6ª generación compatibles con H.264/HEVC 4:2:2
-
3511 TOPS de IA con precisión FP4
¿Para qué se ha creado este servidor?
Inferencia de IA y servicio LLM
Ejecuta modelos de 70B parámetros en cuantización FP8/FP4 en una sola GPU, sin necesidad de configuración multitarjeta. Implemente vLLM o TensorRT-LLM con cuantificación FP4 para obtener el máximo rendimiento. El particionamiento MIG permite ejecutar simultáneamente hasta 4 instancias de modelo totalmente aisladas (24 GB cada una) en una sola GPU.
Ajuste fino de modelos de IA
Ajuste fino de los modelos de transformadores con estrategias de precisión total (prácticas para modelos de hasta ~13B), LoRA o QLoRA para arquitecturas de mayor tamaño. El framebuffer de 96 GB se adapta a grandes lotes que las GPU más pequeñas simplemente no pueden manejar, lo que reduce la sobrecarga y la complejidad de la sincronización multi-GPU.
IA generativa y producción multimedia
Los flujos de trabajo de generación de contenidos de imagen, vídeo y 3D se benefician directamente de los Tensor Cores de 5ª generación de Blackwell. Los pipelines de texto a vídeo ofrecen un rendimiento hasta 3,3 veces superior en comparación con L40S. NVENC/NVDEC compatible con H.264 4:2:2 y HEVC cubre los canales profesionales de emisión y streaming.
Ciencias de la vida y HPC
La secuenciación genómica, el descubrimiento de fármacos y la predicción de estructuras proteicas multiplican la velocidad. NVIDIA Parabricks ejecuta pipelines de análisis de la línea germinal hasta 1,75 veces más rápido que H100 en las mismas tareas.
Renderizado y visualización 3D
RTX Mega Geometry proporciona hasta 100 veces más triángulos trazados por rayos por escena. Los flujos de trabajo de visualización arquitectónica compleja, composición de efectos visuales y producción virtual en tiempo real se aceleran de forma nativa en la GPU.
Ciencia de datos y análisis
Los pipelines acelerados por RAPIDS y CUDA-X se benefician tanto del gran búfer de VRAM como del ancho de banda de PCIe 5.0. Procese conjuntos de datos que excederían los límites de memoria típicos de las GPU y escale a cuatro GPU a medida que crecen las cargas de trabajo.
No te conformes con las especificaciones estándar. Adapte esta central Blackwell a sus necesidades exactas con memoria RAM ampliada, matrices multi-GPU o ampliaciones masivas de almacenamiento. El ancho de banda no medido de 10 Gbps de alta velocidad está disponible como opción para garantizar que sus datos nunca se encuentren con un cuello de botella.
Explore la gama completa de servidores GPU.