华为GPU加速云服务器(GPU Accelerated Cloud Server, GACS)能够提供优秀的浮点计算能力,从容应对高实时、高并发的海量计算场景。P系列适合于深度学习,科学计算,CAE等;G系列适合于3D动画渲染,CAD等
产品优势
-
G系列G3/G1提供多种显存,满足图形图像场景。P系列提供P2v/P1/Pi1实例,满足科学计算、深度学习训练、推理等计算场景
-
完善的生态环境,全面支持多种GPU应用程序、深度学习框架。G系列支持OpenGL、DirectX;P系列支持CUDA、OpenCL
-
一键式获取各类图形工作站、超算应用和深度学习框架、计算集群,让您真正聚焦于核心业务
-
同步业界最新GPU技术,无缝切换最新GPU硬件;支持按需和包周期计费模式,即租即用、弹性扩展
应用场景
人工智能
GPU包含上千个计算单元,在并行计算方面展示出强大的优势,P1、P2v实例针对深度学习特殊优化,可在短时间内完成海量计算;Pi1实例整型计算时延低,可支持35路高清视频解码与实时AI推理
优势:
GPU Direct
完美支撑大数据在神经网络间传输
100GB IB网络
支持GPU Direct over RDMA,100G超高带宽, 2us超低时延
内置加速框架
一键式部署,分钟级实例发放,聚焦核心业务
科学计算
在科学计算领域,要求极强的双精度计算能力。在模拟仿真过程中,消耗大量计算资源的同时,会产生大量临时数据,对存储带宽与时延也有极高的要求
优势
NVMe SSD
最高68万IOPS,消除存储瓶颈,提升整体性能
双精度计算
提供较CPU上百倍的双精度计算能力
无缝迁移
支持多种科学计算软件
图形工作站
提供专业级CAD、视频渲染、图形处理所需的强大计算能力
优势
高性能
性能较普通GPU能够提升数十倍以上
专业硬件
采用数据中心级M60 GPU,完整支持图形工作站接口
功能描述
HPC与AI
强大的单精度与双精度计算能力
-
NVIDIA ® Tesla® V100 (NVLink) GPU,单卡单精度能力15 TFLOPS,双精度能力7.5 TFLOPS,深度学习场景优化120 TFLOPS,搭配16GB HBM2显存,显存带宽900GB/s,多卡互联采用NVLink协议,带宽可达300GB/s。深度学习性能提升3倍,HPC提升1.5倍
-
搭配多块NVIDIA ® Tesla® P100 GPU,单卡单精度能力9.3 TFLOPS,双精度能力4.7 TFLOPS,搭配16GB HBM2显存,显存带宽732GB/s,较上代提升2倍,位宽提升8倍
-
NVIDIA ® Tesla® T4 GPU,单卡单精度计算能力最高8.1 TFLOPS,INT8能力130TOPS,搭配16GB DDR6显存,带宽300GB/s;内置1个NVENC和2个NVDEC。
数据传输
提供GPU计算集群大量数据传输能力
-
P1、P2v实例提供最大10Gb/s的网络带宽,单个裸金属实例额外配备100GB IB网络,最大限度满足计算集群对于数据传输的要求
-
支持GPU Direct技术,实现GPU之间的直接通信;搭载NvLink技术,使GPU之间的数据传输效率提升5倍。数据传输实现高带宽、低时延,数据传输效率高,综合数据处理能力强
视频图像渲染
提供专业级视频图像渲染能力
-
G1实例基于NVIDIA® Tesla® M60 构建,采用NVIDIA GRID技术,提供工业级虚拟图形工作站,支持1G、2G、4G DDR5显存
发表评论