GPU云服务器_GPU云计算_异构计算_云服务器-阿里云

GPU云服务器
GPU 云服务器(GPU Cloud Computing,GPU)是提供 GPU 算力的弹性计算服务,具有超强的计算能力,服务于深度学习、科学计算、图形可视化、视频处理多种应用场景。阿里云作为亚洲第一的云服务提供商,随时为您提供触手可得的算力,有效缓解计算压力,提升您的业务效率,助您提高企业竞争力。
丰富的产品类型
为您提升计算效率的GPU软件
阿里云为您提供专有的辅助工具
AIACC-Trainng
AIACC-Inference
FastGPU
cGPU
EAIS
AIACC-Trainng
AIACC-Inference
FastGPU
cGPU
EAIS
神龙AI加速训练引擎
AIACC-Training是阿里云推出的神龙AI加速训练引擎,针对阿里云环境进行了深度优化,能够显著提升分布式训练效率,大幅提高网络带宽利用率。目前,AIACC-Training已创造两项世界纪录:
斯坦福Dawnbench Imagenet 训练速度最快,世界第一
斯坦福Dawnbench Imagenet 训练成本最低,世界第一
能够提供
支持四种主流框架
Tensorflow, Pytorch, MXNet和Caffe四种分布式训练框架
性能提升50%至300%
适用于带宽密度的网络模型
单机多卡/多机多卡间高性能通信
支持FP16梯度压缩及混合精度压缩
MXNet的API扩展
支持insightface类型的数据+模型并行
RDMA网络深度优化
支持混合链路通信(RDMA+VPC)
推荐搭配使用
神龙AI加速推理引擎
AIACC-Inference是阿里云推出的神龙AI加速推理引擎,针对阿里云环境进行了深度优化,能够显著提升GPU利用率,大幅提高推理业务性能。目前,AIACC-Inference已创造两项世界纪录:
斯坦福Dawnbench Imagenet 推理延迟最低,世界第一
斯坦福Dawnbench Imagenet 推理成本最低,世界第一
能够提供
支持多个框架
Tensorflow, Pytorch, MXNet及其它可导出ONNX模型的深度学习框架进行GPU推理优化
性能提升30%至400%
适用于计算密集的网络模型
支持两种精度模型
FP32和FP16两种精度的模型优化
推荐搭配使用
阿里云GPU实例集群极速部署工具
FastGPU是一套阿里云GPU实例集群极速部署工具,帮助用户在阿里云上一键部署GPU计算资源,使其简单适配、一键部署、随处运行,为用户提供了省时、经济、便捷的阿里云GPU实例集群即刻构建方案。
能够提供
快速部署
提供便捷的API将线下训练/推理脚本快速部署在阿里云GPU实例集群中
便捷管理
提供便捷的命令行工具用于管理阿里云GPU实例集群的运行状态和生命周期
高效省时
用户无需进行阿里云IAAS层相关的计算、存储、网络等繁琐的部署操作,获取集群资源时自动获取相应环境
推荐搭配使用
阿里云容器共享GPU软件
一款在GPU上创建运行多个GPU容器,将GPU资源隔离,实现多个容器共享一张GPU的软件。cGPU可以实现在单张显卡上运行多个容器,并在多个容器间隔离GPU应用,提高GPU硬件资源利用率。
能够提供
GPU切分
划分GPU提升GPU利用率
共享GPU
多个AI应用共享GPU节约成本
灵活匹配
算力和显存灵活切分,满足应用需求
推荐搭配使用
阿里云弹性加速计算实例
Alibaba Elastic Accelerated Computing Instances(EAIS)是一款弹性加速计算实例,可在Alibaba ECS实例中灵活添加GPU加速资源。您可以针对您的应用程序的整体计算和内存需求在 Alibaba Cloud 中选择最适用的ECS实例,然后再配置所需量级的 GPU 驱动推理加速,有效利用资源,同时火速节约成本高达50%。
能够提供
推理成本降低50%
满足用户选择最合适应用的ECS总体计算实例类型,单独制定所需GPU推理加速量级,相比GPU推理实例成本降低50%
灵活的CPU与GPU配比
根据用户需求灵活配比CPU和GPU资源,准确获取用户需求
弹性伸缩
轻松扩展和缩减推理加速量级,有助于用户仅为所需资源付费
推荐搭配使用