Rendimiento excepcional
Construida sobre la revolucionaria arquitectura CDNA3, la APU MI300A destaca por ofrecer un rendimiento informático sin precedentes, perfecto para las cargas de trabajo de IA y HPC más exigentes.
Optimice sus cargas de trabajo de aprendizaje automático y gestión del lenguaje natural con los servidores dedicados de nivel empresarial de HPE, impulsados por AMD Instinct.
Diseñados específicamente para IA, aprendizaje automático y grandes cargas de trabajo de modelos de lenguaje. Nuestros servidores GPU AMD Instinct ofrecen una densidad de cómputo excepcional con memoria HBM3, arquitectura CDNA3 y núcleos de CPU Zen 4 para aplicaciones exigentes de IA/HPC.
Aceleradores de alto rendimiento diseñados para cargas de trabajo de computación de alto rendimiento (HPC) e inteligencia artificial (IA) a exaescala.



| MI210 | L40S | A100 | H100 | |
|---|---|---|---|---|
| Arquitectura de GPU | ADNc 2.0 | Ada Lovelace | NVIDIA Ampere | Tolva |
| Memoria de la GPU | 64 GB HBM2e | 48 GB GDDR6 | 80 GB HBM2e | 80 GB HBM3 |
| Ancho de banda de la memoria de la GPU | 1638 GB/s | 864 GB/s | 1935 GB/s | 3352 GB/s |
| FP32 | 22,63 TFLOPS | 91,6 TFLOPS | 19,5 TFLOPS | 51 TFLOPS |
| Núcleo tensorial TF32 | 312 TFLOPS | 366 TFLOPS | 312 TFLOPS | 756 TFLOPS |
| Núcleo Tensor FP16/BF16 | 181 TFLOPS | 733 TFLOPS | 624 TFLOPS | 1513 TFLOPS |
| Fuerza | Hasta 300 W | Hasta 350 W | Hasta 400 W | Hasta 350 W |
| Cargando... | Cargando... | Cargando... | Cargando... |
Preguntas frecuentes sobre la implementación y la administración de servidores AMD Instinct con aceleración por GPU para cargas de trabajo de IA, HPC y aprendizaje automático.