Ray在ACK集群高效部署与优化实践
开源框架Ray支持构建可扩展的人工智能(AI)和Python应用程序,广泛应用于机器学习领域。您可以在ACK集群上快速创建Ray Cluster,与阿里云日志服务SLS、Prometheus监控、Redis等快速集成,增强日志管理、可观测、高可用等能力。同时,Ray autoscaler与ACK autoscaler的弹性功能结合能更充分地发挥云的弹性能力,提高计算资源供给效率和性价比。
利用Nsight Systems对AI应用进行性能分析与优化
在深度学习中,一般会使用Nsight Systems和Nsight Compute工具对AI应用进行性能分析与优化。本文演示如何使用Nsight Systems对AI应用进行性能分析与优化。
借助TensorRT优化模型推理性能
TensorRT优化模型过程,首先将PyTorch(或TensorFlow)等训练框架训练完成后的模型编译为TensorRT的格式,然后利用TensorRT推理引擎运行这个模型,从而提升这个模型在英伟达GPU上运行的速度,适用于对实时性要求较高的场景。那么该如何借助TensorRT优化模型推理性能呢?本文将演示模型训练编译过程,然后介绍一些TensorRT常用的模型推理性能优化建议。
Fluid数据缓存优化策略最佳实践
在计算与存储分离的架构下,使用Fluid数据缓存技术,能够有效解决在Kubernetes集群中访问存储系统数据时容易出现的高延迟及带宽受限问题,从而提升数据处理效率。本文从性能维度、稳定性维度、读写一致性维度介绍如何使用Fluid数据缓存策略。
带你读《弹性计算技术指导及场景应用》——1. 技术改变AI发展:CUDA Graph优化的底层原理分析
简介:随着人工智能(AI)的迅速发展,越来越多的应用需要巨大的GPU计算资源。CUDA是一种并行计算平台和编程模型,由Nvidia推出,可利用GPU的强大处理能力进行加速计算。CUDA 异步执行模型对于GPU运算集中的AI应用场景,为了提升系统的性能,最大化地利用GPU资源是一个重要的优化方向。比较常用的方式是尽量将GPU运算转换为异步操作,CPU侧负责任务提交,保证有足够的cuda kerne....
带你读《弹性计算技术指导及场景应用》——2. 技术改变AI发展:RDMA能优化吗?GDR性能提升方案
简介:随着人工智能(AI)的迅速发展,越来越多的应用需要巨大的GPU计算资源。GPUDirect RDMA 是 Kepler 级 GPU 和 CUDA 5.0 中引入的一项技术,可以让使用pcie标准的gpu和第三方设备进行直接的数据交换,而不涉及CPU。背景:GPUDirect RDMA 是 Kepler 级 GPU 和 CUDA 5.0 中引入的一项技术,可以让使用pcie标准的gpu和第三....
本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。
产品推荐
人工智能平台PAI
人工智能平台 PAI(Platform for AI,原机器学习平台PAI)是面向开发者和企业的机器学习/深度学习工程平台,提供包含数据标注、模型构建、模型训练、模型部署、推理优化在内的AI开发全链路服务,内置140+种优化算法,具备丰富的行业场景插件,为用户提供低门槛、高性能的云原生AI工程化能力。
+关注