Prestazioni eccezionali
Basata sulla rivoluzionaria architettura CDNA3, l'APU MI300A eccelle nell'offrire prestazioni di calcolo senza precedenti, perfette per i carichi di lavoro di intelligenza artificiale e HPC più impegnativi.
Ottimizza i tuoi carichi di lavoro di Machine Learning e LLM con i server dedicati di livello enterprise di HPE basati su AMD Instinct.
Progettati specificamente per l'intelligenza artificiale, l'apprendimento automatico e i carichi di lavoro di grandi dimensioni relativi ai modelli linguistici, i nostri server con GPU AMD Instinct offrono una densità di calcolo eccezionale grazie alla memoria HBM3, all'architettura CDNA3 e ai core CPU Zen 4, ideali per applicazioni di intelligenza artificiale e calcolo ad alte prestazioni (HPC) esigenti.
Acceleratori ad alte prestazioni progettati per carichi di lavoro HPC e di intelligenza artificiale exascale.



| MI210 | L40S | A100 | H100 | |
|---|---|---|---|---|
| Architettura GPU | CDNA 2.0 | Ada Lovelace | NVIDIA Ampere | Tramoggia |
| Memoria GPU | 64 GB HBM2e | 48 GB GDDR6 | 80 GB HBM2e | 80 GB HBM3 |
| Larghezza di banda della memoria GPU | 1638 GB/s | 864 GB/s | 1935 GB/s | 3352 GB/s |
| FP32 | 22,63 TFLOPS | 91,6 TFLOPS | 19,5 TFLOPS | 51 TFLOPS |
| TF32 Tensor Core | 312 TFLOPS | 366 TFLOPS | 312 TFLOPS | 756 TFLOPS |
| Core tensoriale FP16/BF16 | 181 TFLOPS | 733 TFLOPS | 624 TFLOPS | 1513 TFLOPS |
| Energia | Fino a 300 W | Fino a 350 W | Fino a 400 W | Fino a 350 W |
| Caricamento... | Caricamento... | Caricamento... | Caricamento... |
Domande frequenti sulla distribuzione e la gestione dei server con accelerazione GPU AMD Instinct per carichi di lavoro di intelligenza artificiale, calcolo ad alte prestazioni (HPC) e apprendimento automatico.