阿里云文档 2026-02-10

在分布式训练(DLC)中挂载OSS

在提交DLC训练任务时,您可以通过代码配置或挂载的方式配置OSS、NAS、CPFS或MaxCompute存储,从而方便地在训练过程中直接读写相应存储中的数据。本文为您介绍如何在DLC训练任务中进行OSS、MaxCompute、NAS或CPFS的存储配置。

阿里云文档 2026-01-27

分布式训练 DLC 快速入门

DLC可以快捷地创建分布式或单机训练任务。其底层基于Kubernetes,省去您手动购买机器并配置运行环境,无需改变使用习惯即可快速使用。本文以 MNIST 手写体识别为例,介绍如何使用DLC进行单机单卡训练,或多机多卡的分布式训练。

阿里云文档 2026-01-15

实例互联进行分布式训练

DSW提供了多实例互联的功能,帮助您在DSW中实现多机多卡的分布式开发和训练。

阿里云文档 2025-08-12

使用eRDMA网络进行分布式训练

弹性RDMA(Elastic Remote Direct Memory Access,简称eRDMA)是阿里云自研的云上弹性RDMA网络。PAI通用计算资源中的部分GPU机型已支持eRDMA能力,您只需使用特定镜像提交基于这些GPU机型的DLC任务,系统将自动在容器内挂载eRDMA网卡,从而加速分布式训练过程。

阿里云文档 2025-02-13

使用DeepNCCL加速模型的分布式训练或推理性能

DeepNCCL是阿里云神龙异构产品开发的用于多GPU互联的AI通信加速库,能够无感地加速基于NCCL进行通信算子调用的分布式训练或多卡推理等任务。开发人员可以根据实际业务情况,在不同的GPU云服务器上安装DeepNCCL通信库,以加速分布式训练或推理性能。本文主要介绍在Ubuntu或CentOS操作系统的GPU实例上安装和使用DeepNCCL的操作方法。

文章 2024-07-29 来自:开发者社区

人工智能平台PAI操作报错合集之在分布式训练过程中遇到报错,是什么原因

问题一:机器学习PAI flink运行一段时间后jobManager里经常会报这个错是什么原因? 机器学习PAI flink运行一段时间后jobManager里经常会报Connection reset by peer这个错是...

人工智能平台PAI操作报错合集之在分布式训练过程中遇到报错,是什么原因
文章 2024-04-28 来自:开发者社区

人工智能平台PAI产品使用合集之如何在CPU服务器上使用PAIEasyRec进行分布式训练

问题一:机器学习PAI分布式训练同步模式时num_steps的设置方法? 机器学习PAI分布式训练同步模式时num_steps的设置方法? 参考答案: 在分布式训练同步模式下,num_steps的设置方法是根据总样本数、训练轮数、批次大小和工作节点数来计算的。具体计算公式为:num_steps = total_sample_num * num_epoc...

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

阿里云分布式应用服务

企业级分布式应用服务 EDAS(Enterprise Distributed Application Service)是应用全生命周期管理和监控的一站式PaaS平台,支持部署于 Kubernetes/ECS,无侵入支持Java/Go/Python/PHP/.NetCore 等多语言应用的发布运行和服务治理 ,Java支持Spring Cloud、Apache Dubbo近五年所有版本,多语言应用一键开启Service Mesh。

+关注