Desempenho excepcional
Construída com base na revolucionária arquitetura CDNA3, a APU MI300A se destaca por oferecer desempenho computacional incomparável, perfeita para as cargas de trabalho de IA e HPC mais exigentes.
Otimize suas cargas de trabalho de Machine Learning e LLM com servidores dedicados de nível empresarial da HPE, equipados com AMD Instinct.
Projetados especificamente para IA, aprendizado de máquina e grandes cargas de trabalho de modelos de linguagem, nossos servidores com GPU AMD Instinct oferecem densidade de computação excepcional com memória HBM3, arquitetura CDNA3 e núcleos de CPU Zen 4 para aplicações exigentes de IA/HPC.
Aceleradores de alto desempenho projetados para cargas de trabalho de HPC e IA em exaescala.



| MI210 | L40S | A100 | H100 | |
|---|---|---|---|---|
| Arquitetura de GPU | CDNA 2.0 | Ada Lovelace | NVIDIA Ampere | Funil |
| Memória da GPU | 64 GB HBM2e | 48 GB GDDR6 | 80 GB HBM2e | 80 GB HBM3 |
| Largura de banda da memória da GPU | 1638 GB/s | 864 GB/s | 1935 GB/s | 3352 GB/s |
| FP32 | 22,63 TFLOPS | 91,6 TFLOPS | 19,5 TFLOPS | 51 TFLOPS |
| Núcleo Tensor TF32 | 312 TFLOPS | 366 TFLOPS | 312 TFLOPS | 756 TFLOPS |
| Núcleo Tensor FP16/BF16 | 181 TFLOPS | 733 TFLOPS | 624 TFLOPS | 1513 TFLOPS |
| Poder | Até 300W | Até 350W | Até 400W | Até 350W |
| Carregando... | Carregando... | Carregando... | Carregando... |
Perguntas frequentes sobre a implementação e o gerenciamento de seus servidores com aceleração por GPU AMD Instinct para cargas de trabalho de IA, HPC e aprendizado de máquina.