借助由 Nvidia A100 / H100 GPU 提供支持的裸金属云服务器,获得无与伦比的性能和加速的 AI 功能。
有闲置的服务器或桌面 GPU 配置吗?立即在 Primcast 市场上架,即可从需要生产级计算的 AI 团队、开发人员和企业那里获得稳定的月租金。
比较我们的 NVIDIA Ampere A100 和 Hopper H100 GPU 服务器的技术规格,找到最适合您的 AI 和 HPC 工作负载的服务器。
Nvidia A100 GPU 具备人工智能和深度学习应用所需的性能、可扩展性和效率,是寻求尖端计算能力的企业和研究人员的绝佳选择。
建筑学
安培
视频内存
40GB / 80GB HBM2
CUDA核心
6912 件
最大带宽
1.6 TB/s
最新发布的NVIDIA H100 GPU为各种工作负载提供了前所未有的性能、可扩展性和安全性。它的速度至少是其前代产品A100 GPU的两倍。
建筑学
料斗
视频内存
80GB HBM3
CUDA核心
8448 件
最大带宽
3 TB/秒
基于 Ampere 和 Hopper 架构的企业级 NVIDIA GPU 服务器,可为深度学习、AI 推理和 HPC 工作负载提供卓越的性能。
NVIDIA Ampere 架构拥有 540 亿个晶体管,是迄今为止制造的最大的 7 纳米芯片之一。
HBM2 旨在提供快速有效的数据访问,内存带宽高达 1.6 TB/s。
Nvidia A100 专为人工智能和深度学习应用而设计,其性能是上一代 GPU 的 20 倍。
体验实时光线追踪,是高要求可视化任务的理想之选。A100 GPU 提供逼真沉浸式视觉效果所需的强大渲染能力。
利用第三代 NVLink 的强大功能,实现比 PCI-Express 快 10 倍到 20 倍的闪电般数据传输速度。
使每个 A100 GPU 能够同时运行七个不同的、相互隔离的应用程序或用户会话。
关于部署和管理用于 AI、机器学习和深度学习工作负载的 NVIDIA A100 H100 GPU 加速服务器的常见问题。
NVIDIA A100 和 H100 GPU 专为人工智能、机器学习和深度学习工作负载而设计。A100 采用 Ampere 架构,其性能比上一代产品提升高达 20 倍,并配备了针对混合精度训练优化的 Tensor Core。H100 采用 Hopper 架构,性能比 A100 快 2 倍,并配备了增强型 Transformer Engine,可处理大型语言模型,并支持用于大规模训练和推理的高级张量运算。
付款验证后,A100 即刻配置将在 5 分钟内交付。您的 GPU 专用服务器具备即时操作系统重装功能,让您无需重新提交支持工单即可快速迭代。我们的网络路由针对全天候工作负载和高吞吐量数据传输进行了优化,确保您立即获得生产力。
A100 采用 Ampere 架构,配备 40GB/80GB HBM2 显存、6912 个 CUDA 核心和 1.6 TB/s 带宽。H100 则采用新一代 Hopper 架构,配备 80GB HBM3 显存、8448 个 CUDA 核心和 3 TB/s 带宽。与 A100 相比,H100 的高性能计算 (HPC) 性能提升 7 倍,AI 训练速度提升 2 倍,并拥有 Transformer Engine、第二代 MIG 技术等先进特性,以及通过 NVLink 交换系统连接多达 256 个 GPU 的支持。
我们的 NVIDIA GPU 服务器支持 NVLink 技术,可实现高速 GPU 间通信——A100 上的第三代 NVLink 传输速度比 PCIe 快 10 到 20 倍,而 H100 支持先进的 NVLink 交换系统,最多可连接 256 个 GPU。A100 和 H100 均采用多实例 GPU (MIG) 技术,可将资源安全地划分为最多七个独立的实例,从而最大限度地提高资源利用率和工作负载灵活性。