[帮助文档] 使用TensorRT-LLM优化大语言模型在GPU上的推理性能

在处理大语言模型任务时,您可以选择在GPU云服务器环境下安装推理引擎TensorRT-LLM,然后通过使用TensorRT-LLM工具实现大语言模型(例如Llama模型、ChatGLM模型、百川Baichuan模型等)在GPU上的高性能推理优化功能。

[帮助文档] 使用AI通信加速库DeepNCCL加速模型的分布式训练或推理性能

DeepNCCL是阿里云神龙异构产品开发的用于多GPU互联的AI通信加速库,能够无感地加速基于NCCL进行通信算子调用的分布式训练或多卡推理等任务。开发人员可以根据实际业务情况,在不同的GPU云服务器上安装DeepNCCL通信库,以加速分布式训练或推理性能。本文主要介绍在Ubuntu或CentOS操...

云原生AI套件:一键训练大模型及部署GPU共享推理服务

1 课时 |
52 人已学 |
免费
开发者课程背景图

[帮助文档] AI通信加速库Deepnccl的架构、性能以及优化原理_GPU云服务器(EGS)

Deepnccl是为阿里云神龙异构产品开发的一种用于多GPU互联的AI通信加速库,在AI分布式训练或多卡推理任务中用于提升通信效率。本文主要介绍Deepnccl的架构、优化原理和性能说明。

[帮助文档] AIACC-ACSpeed的部分性能数据

本文展示了AIACC-ACSpeed的部分性能数据,相比较通过原生DDP训练模型后的性能数据,使用AIACC-ACSpeed训练多个模型时,性能具有明显提升。

[帮助文档] 展示AIACC-AGSpeed性能数据和性能效果_GPU云服务器(EGS)

本文展示了AIACC-AGSpeed(简称AGSpeed)的部分性能数据,相比较通过PyTorch原生Eager模式训练模型后的性能数据,使用AGSpeed训练多个模型时,性能具有明显提升。

《端到端GPU性能在深度学学习场景下的应用实践》电子版地址

《端到端GPU性能在深度学学习场景下的应用实践》电子版地址

《端到端GPU性能在深度学学习场景下的应用实践》端到端GPU性能在深度学学习场景下的应用实践 电子版下载地址: https://developer.aliyun.com/ebook/1253 电子书: </div>

端到端GPU性能在深度学学习场景下的应用实践

阿里巴巴高级算法专家杨军在2017杭州云栖大会中做了题为《端到端GPU性能在深度学学习场景下的应用实践》的分享,就深度学习背景,优化思考,特征案例做了深入的分析。 https://yq.aliyun.com/download/1838?spm=a2c4e.11154804.0.0.61df6a79W...

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

社区圈子

云服务器ECS
云服务器ECS
做技术先进、性能优异、稳如磐石的弹性计算!
418277+人已加入
加入
相关电子书
更多
端到端GPU性能在深度学学习场景下的应用实践
DeepStream: GPU加速海量视频数据智能处理
阿里巴巴高性能GPU架构与应用
立即下载 立即下载 立即下载