[帮助文档] 如何在GPU硬件上使用PAI-Blade量化优化

PAI-Blade支持TensorFlow和PyTorch模型在GPU硬件、端侧设备的INT8量化。本文主要介绍在GPU硬件上,如何使用PAI-Blade量化优化。

GPU,换了注册好了上海pai,发现浏览器不支持,换了浏览器,但是PAI控制中心从哪进去?

GPU,换了注册好了上海pai,发现浏览器不支持,换了浏览器,但是PAI控制中心从哪进去?

机器学习PAI中如果每台worker各有两块GPU,如何指定使用哪两块GPU?

机器学习PAI中如果每台worker各有两块GPU,如何指定使用哪两块GPU(使用每台机器各一块GPU 另一块闲置)?

机器学习PAI没有padding,那不同batch size对gpu的影响有建议的排查方向吗?

机器学习PAI没有padding,那不同batch size对gpu的影响有建议的排查方向吗?

机器学习PAI现在有个模型用blade跟trt比,gpu利用率会高20%左右,这个一般怎么分析一下?

请教一下,机器学习PAI现在有个模型用blade跟trt比,gpu利用率会高20%左右,这个一般怎么分析一下?nsys可以看到有些matmul的kernel选择跟trt是不同的

机器学习PAI可视化建模中视觉算法需要使用GPU

机器学习PAI可视化建模中视觉算法需要使用GPU

机器学习PAI的EAS扩容能扩容GPU显存吗

机器学习PAI的EAS扩容能扩容GPU显存吗

PAI Designer实验开启GPU Quick Start

PAI Designer实验开启GPU Quick Start

常见问题现象:实验执行节点组件报异常:Failed Task train:kOtherError:No available cluster has the required feature: fuxi_gpu,gpu_with_vm_cuda8.由于数据转tfrecord组件执行调优参数:是否使用G...

PAI年度巨献:在线推理加速优化,降低推理GPU所需资源

PAI年度巨献:在线推理加速优化,降低推理GPU所需资源

背景 在线推理是抽象的算法模型触达具体的实际业务的最后一公里,PAI已经对外推出了PAI-EAS在线模型服务,帮助大家解决模型服务化的问题,目前已经吸引数百家企业入驻。但是在这个环节中,仍然还有这些已经是大家共识的痛点和诉求: 1.任何线上产品的用户体验都与服务的响应时长成反比,复杂的模型如何极致地...

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

社区圈子

云服务器ECS
云服务器ECS
做技术先进、性能优异、稳如磐石的弹性计算!
418277+人已加入
加入
相关电子书
更多
端到端GPU性能在深度学学习场景下的应用实践
DeepStream: GPU加速海量视频数据智能处理
阿里巴巴高性能GPU架构与应用
立即下载 立即下载 立即下载