阿里云文档 2024-09-11

一键训练大模型及部署GPU共享推理服务

通过创建ACK集群Pro版,使用云原生AI套件提交模型微调训练任务与部署GPU共享推理服务。支持快速创建Kubernetes集群,白屏配置任务数据共享存储和下载,并通过命令行工具Arena快速提交模型训练任务、部署推理服务。使用云原生AI套件可以让模型训练和推理提效,提高GPU资源利用率。

问答 2024-08-07 来自:开发者社区

在GPU集群上,HybridBackend如何实现训练的同步性?

在GPU集群上,HybridBackend如何实现训练的同步性?

阿里云文档 2024-05-27

安装和使用Deepytorch Training提升训练加速能力

Deepytorch Training是阿里云自研的AI加速器,面向传统AI和生成式AI场景,在模型训练过程中,可提供显著的训练加速能力。本文主要介绍安装并使用Deepytorch Training的操作方法。

阿里云文档 2024-05-16

Deepytorch Training(训练加速)介绍、优势及特性

Deepytorch Training是阿里云自研的AI训练加速器,为传统AI和生成式AI场景提供训练加速功能。本文主要介绍Deepytorch Training在训练加速上的概念、优势及特性等。

阿里云文档 2024-05-13

使用AI通信加速库DeepNCCL加速模型的分布式训练或推理性能

DeepNCCL是阿里云神龙异构产品开发的用于多GPU互联的AI通信加速库,能够无感地加速基于NCCL进行通信算子调用的分布式训练或多卡推理等任务。开发人员可以根据实际业务情况,在不同的GPU云服务器上安装DeepNCCL通信库,以加速分布式训练或推理性能。本文主要介绍在Ubuntu或CentOS操作系统的GPU实例上安装和使用DeepNCCL的操作方法。

阿里云文档 2024-01-25

使用AIACC-ACSpeed体验训练效果

AIACC-ACSpeed(简称ACSpeed)作为阿里云自研的AI训练加速器,在提高训练效率的同时能够降低使用成本,可以实现无感的分布式通信性能优化。ACSpeed软件包中已为您提供了适配DDP的示例代码,您可以参考本文快速体验使用ACSpeed进行模型分布式训练的过程以及性能提升效果。操作步骤本...

文章 2022-08-12 来自:开发者社区

【USENIX ATC】支持异构GPU集群的超大规模模型的高效的分布式训练框架Whale

作者:张杰、贾贤艳近日,阿里云机器学习PAI关于深度学习模型高效的分布式训练框架的论文《 Whale: Efficient Giant Model Training over Heterogeneous GPUs 》被计算机系统领域国际顶级学术会议USENIX ATC'22接收。Whale是阿里云机器学习PAI平台自研的分布式训练框架,开源后的名...

【USENIX ATC】支持异构GPU集群的超大规模模型的高效的分布式训练框架Whale

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

云服务器ECS

做技术先进、性能优异、稳如磐石的弹性计算!

+关注