Server cloud Nvidia A100 H100

Ottieni l'accesso a prestazioni senza pari e funzionalità di intelligenza artificiale accelerate con server cloud bare metal basati su GPU Nvidia A100 / H100.

Iniziare

Configurazioni Nvidia A100 H100, perfette per intelligenza artificiale, apprendimento profondo, visualizzazione e calcolo ad alte prestazioni.

segno di spunta

Dischi NVMe

segno di spunta

Supporto 24 ore su 24, 7 giorni su 7

segno di spunta

Prezzi imbattibili

segno di spunta

5 minuti di distribuzione

Scheda grafica NVIDIA A100

Scheda grafica A100
Specifiche NVIDIA A100:
Capacità di memoria video HBM2 da 40 GB / 80 GB
Core CUDA 6912 pezzi
Larghezza di banda massima 1,6 TB/s
Le GPU Nvidia A100 offrono le prestazioni, la scalabilità e l'efficienza necessarie per le applicazioni di intelligenza artificiale e deep learning, il che le rende un'opzione eccellente per aziende e ricercatori alla ricerca di una potenza di calcolo all'avanguardia.
Infrastruttura Ampere

Infrastruttura Ampere

Con 54 miliardi di transistor, l'architettura NVIDIA Ampere è uno dei più grandi chip da 7 nanometri mai costruiti.

Memoria ad alta larghezza di banda

Memoria ad alta larghezza di banda (HBM2)

HBM2 è progettato per offrire un accesso ai dati rapido ed efficace, con una larghezza di banda di memoria fino a 1,6 TB/s.

Intelligenza artificiale e apprendimento profondo

Intelligenza artificiale e apprendimento profondo

La Nvidia A100 è progettata specificamente per applicazioni di intelligenza artificiale e deep learning, offrendo prestazioni fino a 20 volte superiori rispetto alle GPU di precedente generazione.

Tracciamento dei raggi

Tracciamento dei raggi

Prova il ray tracing in tempo reale, ideale per le attività di visualizzazione più impegnative. La GPU A100 offre la potenza di rendering necessaria per immagini realistiche e immersive.

Supporto NVLink

Supporto NVLink

Sfrutta le funzionalità di NVLink di terza generazione per trasferimenti di dati rapidissimi, da 10 a 20 volte più rapidi rispetto a PCI-Express.

GPU multi-interfaccia

GPU multi-interfaccia

Consenti a ciascuna GPU A100 di eseguire simultaneamente sette applicazioni o sessioni utente distinte e isolate.

Vedi configurazioni

Scheda grafica NVIDIA H100

Specifiche NVIDIA H100:
Capacità di memoria video 80 GB HBM3
Core CUDA 8448 pezzi
Larghezza di banda massima 3 TB/s
L'ultima GPU NVIDIA H100 lanciata offre prestazioni, scalabilità e sicurezza senza precedenti per vari carichi di lavoro. È almeno due volte più veloce della GPU A100, la precedente.
GPU H100
Infrastruttura Hopper

Infrastruttura Hopper

Le GPU H100 garantiscono prestazioni eccezionali nelle applicazioni HPC, 7 volte superiori rispetto alle GPU A100.

Connettività

Connettività

È possibile collegare fino a 256 GPU H100 utilizzando il sistema NVIDIA NVLink Switch, consentendo di accelerare le attività exascale.

Formazione AI

Formazione AI

La GPU H100 rappresenta la quarta generazione del sistema di intelligenza artificiale più avanzato, offrendo prestazioni eccezionali.

GPU multi-interfaccia

GPU multi-interfaccia

L'H100 è dotato della tecnologia MIG di seconda generazione, che consente di suddividere in modo sicuro ciascuna GPU in un massimo di sette istanze separate.

Close

Type

Deployment

5min - 30min
4h - 24h

Location

Select your option Arrow down
  • Select your option
  • US New York, US
  • US Miami, US
  • US San Francisco, US
  • Netherlands Amsterdam, EU
  • Romania Bucharest, EU

Pricing

0 0

Hardware

Processor(s)

Select your option Arrow down

    GPU(s)

    Select your option Arrow down

      Memory

      Select your option Arrow down

        Storage

        Select your option Arrow down

          OS

          Select your option Arrow down

            Bandwidth

            Select your option Arrow down

              Type

              Deployment

              5min - 30min
              4h - 24h

              Location

              Select your option Arrow down
              • Select your option
              • US New York, US
              • US Miami, US
              • US San Francisco, US
              • Netherlands Amsterdam, EU
              • Romania Bucharest, EU

              Pricing

              0 0

              Hardware

              Processor(s)

              Select your option Arrow down

                GPU(s)

                Select your option Arrow down

                  Memory

                  Select your option Arrow down

                    Storage

                    Select your option Arrow down

                      OS

                      Select your option Arrow down

                        Bandwidth

                        Select your option Arrow down

                          Sort by:

                          Price Low to High Arrow down
                          • Price Low to High
                          • Discount High to Low
                          Loading

                          Loading servers...

                          Perché Primcast?

                          Consegna veloce

                          Consegna veloce

                          Le configurazioni istantanee A100 vengono consegnate entro 5 minuti, con il pagamento verificato.

                          Contratto di servizio

                          99,9% SLA

                          Il tuo server GPU dedicato è supportato da un SLA leader del settore, con un uptime del 99,9%.

                          Supporto

                          Supporto 24 ore su 24, 7 giorni su 7

                          Gli esperti di cloud GPU in tempo reale sono disponibili tramite chat, telefono ed e-mail.

                          centri dati

                          centri dati

                          Distribuisci il tuo server dedicato NVIDIA A100 da New York, Miami, San Francisco, Amsterdam o Bucarest.

                          Distribuisci il tuo server cloud bare-metal A100 H100 in pochi minuti!

                          Iniziare