Serveurs cloud Nvidia A100 H100

Accédez à des performances inégalées et à des capacités d'IA accélérées avec des serveurs cloud bare metal alimentés par les GPU Nvidia A100 / H100.

Commencer

Configurations Nvidia A100 H100, parfaites pour l'IA, l'apprentissage en profondeur, la visualisation et le calcul haute performance.

coche

Disques NVMe

coche

Assistance 24h/24 et 7j/7

coche

Des prix imbattables

coche

Déploiement en 5 minutes

GPU NVIDIA A100

GPU A100
Spécifications de la carte graphique NVIDIA A100 :
Capacité de mémoire vidéo 40 Go / 80 Go HBM2
Cœurs CUDA 6912 pièces
Bande passante maximale 1,6 To/s
Les GPU Nvidia A100 offrent les performances, l'évolutivité et l'efficacité nécessaires aux applications d'IA et d'apprentissage en profondeur, ce qui en fait une excellente option pour les entreprises et les chercheurs à la recherche d'une puissance de calcul de pointe.
Infrastructure Ampère

Infrastructure Ampère

Avec 54 milliards de transistors, l'architecture NVIDIA Ampere est l'une des plus grandes puces de 7 nanomètres jamais construites.

Mémoire à large bande passante

Mémoire à large bande passante (HBM2)

HBM2 est conçu pour offrir un accès rapide et efficace aux données, avec une bande passante mémoire allant jusqu'à 1,6 To/s.

IA et apprentissage profond

IA et apprentissage profond

Le Nvidia A100 est spécialement conçu pour les applications d'intelligence artificielle et d'apprentissage en profondeur, offrant jusqu'à 20 fois les performances des GPU de la génération précédente.

Traçage de rayons

Traçage de rayons

Découvrez le ray tracing en temps réel, idéal pour les tâches de visualisation exigeantes. Le GPU A100 offre la puissance de rendu nécessaire pour des visuels réalistes et immersifs.

Prise en charge de NVLink

Prise en charge de NVLink

Utilisez les capacités de NVLink de 3e génération pour des transferts de données ultra-rapides jusqu'à 10 à 20 fois plus rapides que PCI-Express.

GPU multi-interface

GPU multi-interface

Permettez à chaque GPU A100 d'exécuter simultanément sept applications ou sessions utilisateur distinctes et isolées.

Voir les configurations

GPU NVIDIA H100

Spécifications NVIDIA H100 :
Capacité de mémoire vidéo 80 Go HBM3
Cœurs CUDA 8448 pièces
Bande passante maximale 3 To/s
Le dernier GPU NVIDIA H100 offre des performances, une évolutivité et une sécurité inégalées pour diverses charges de travail. Il est au moins deux fois plus rapide que son prédécesseur, le GPU A100.
GPU H100
Infrastructure de trémie

Infrastructure de trémie

Les GPU H100 offrent des performances exceptionnelles dans les applications HPC, 7 fois supérieures à celles du GPU A100.

Connectivité

Connectivité

Jusqu'à 256 GPU H100 peuvent être connectés à l'aide du système de commutation NVIDIA NVLink, permettant d'accélérer les tâches exascale.

formation en IA

formation en IA

Le GPU H100 représente la quatrième génération du système d'IA le plus avancé, offrant des capacités de performances exceptionnelles.

GPU multi-interface

GPU multi-interface

Le H100 est doté de la technologie MIG de deuxième génération, qui permet à chaque GPU d'être partitionné en toute sécurité en sept instances distinctes maximum.

Close

Type

Deployment

5min - 30min
4h - 24h

Location

Select your option Arrow down
  • Select your option
  • US New York, US
  • US Miami, US
  • US San Francisco, US
  • Netherlands Amsterdam, EU
  • Romania Bucharest, EU

Pricing

0 0

Hardware

Processor(s)

Select your option Arrow down

    GPU(s)

    Select your option Arrow down

      Memory

      Select your option Arrow down

        Storage

        Select your option Arrow down

          OS

          Select your option Arrow down

            Bandwidth

            Select your option Arrow down

              Type

              Deployment

              5min - 30min
              4h - 24h

              Location

              Select your option Arrow down
              • Select your option
              • US New York, US
              • US Miami, US
              • US San Francisco, US
              • Netherlands Amsterdam, EU
              • Romania Bucharest, EU

              Pricing

              0 0

              Hardware

              Processor(s)

              Select your option Arrow down

                GPU(s)

                Select your option Arrow down

                  Memory

                  Select your option Arrow down

                    Storage

                    Select your option Arrow down

                      OS

                      Select your option Arrow down

                        Bandwidth

                        Select your option Arrow down

                          Sort by:

                          Price Low to High Arrow down
                          • Price Low to High
                          • Discount High to Low
                          Loading

                          Loading servers...

                          Pourquoi Primcast ?

                          Livraison rapide

                          Livraison rapide

                          Les configurations instantanées A100 sont livrées dans les 5 minutes, avec votre paiement vérifié.

                          SLA

                          99,9 % d'acide stéarique

                          Votre serveur dédié GPU est soutenu par un SLA de pointe avec une disponibilité de 99,9 %.

                          Soutien

                          Assistance 24h/24 et 7j/7

                          Des experts en cloud GPU en direct sont disponibles via chat en direct, téléphone et e-mail.

                          Centres de données

                          Centres de données

                          Déployez votre serveur dédié NVIDIA A100 depuis New York, Miami, San Francisco, Amsterdam ou Bucarest.

                          Déployez votre serveur cloud bare metal A100 H100 en quelques minutes !

                          Commencer