Nvidia A100 H100 配置,非常适合人工智能、深度学习、可视化和高性能计算。
NVMe 磁盘
24/7 支持
无与伦比的价格
5分钟部署
NVIDIA A100 GPU
NVIDIA A100 规格: | |
---|---|
显存容量 | 40GB / 80GB HBM2 |
CUDA 核心 | 6912件 |
最大带宽 | 1.6 TB/秒 |
Nvidia A100 GPU 提供了 AI 和深度学习应用所需的性能、可扩展性和效率,使其成为寻求尖端计算能力的企业和研究人员的绝佳选择。 |
Ampere 基础设施
NVIDIA Ampere 架构拥有 540 亿个晶体管,是有史以来最大的 7 纳米芯片之一。
高带宽内存(HBM2)
HBM2 旨在提供快速有效的数据访问,内存带宽高达 1.6 TB/s。
人工智能和深度学习
Nvidia A100 专为人工智能和深度学习应用而设计,性能比上一代 GPU 高达 20 倍。
光线追踪
体验实时光线追踪,非常适合高要求的可视化任务。A100 GPU 提供逼真沉浸式视觉效果所需的渲染能力。
NVLink 支持
利用第三代 NVLink 的功能,实现比 PCI-Express 快 10 倍到 20 倍的闪电般快速的数据传输。
多接口GPU
使每个 A100 GPU 能够同时运行七个不同且独立的应用程序或用户会话。
NVIDIA H100 GPU
NVIDIA H100 规格: | |
---|---|
显存容量 | 80GB HBM3 |
CUDA 核心 | 8448件 |
最大带宽 | 3 TB/秒 |
最新发布的 NVIDIA H100 GPU 为各种工作负载提供了前所未有的性能、可扩展性和安全性。它的速度比其前代产品 A100 GPU 至少快两倍。 |
Hopper基础设施
H100 GPU 在 HPC 应用中表现出色,与 A100 GPU 相比性能高出 7 倍。
连接性
使用 NVIDIA NVLink 交换系统最多可连接 256 个 H100 GPU,从而加速百亿亿次任务。
人工智能训练
H100 GPU 是最先进的 AI 系统的第四代,具有卓越的性能。
多接口GPU
H100 采用第二代 MIG 技术,允许将每个 GPU 安全地划分为最多 7 个独立实例。
Type
Deployment
Location
Pricing
Hardware
Processor(s)
GPU(s)
Memory
Storage
OS
Bandwidth
Type
Deployment
Location
Pricing
Hardware
Processor(s)
GPU(s)
Memory
Storage
OS
Bandwidth
Sort by:
Loading servers...
为什么选择 Primcast?
快速交货
即时 A100 配置将在 5 分钟内交付,并验证您的付款。
99.9% 服务水平
您的 GPU 专用服务器由行业领先的 SLA 提供支持,具有 99.9% 的正常运行时间。
24/7 支持
可通过实时聊天、电话和电子邮件联系现场 GPU 云专家。
数据中心
从纽约、迈阿密、旧金山、阿姆斯特丹或布加勒斯特部署您的 NVIDIA A100 专用服务器。