阿里云文档 2025-04-14

如何使用PAI-Blade的SDK部署TensorFlow模型推理

PAI-Blade提供了C++ SDK帮助您部署优化后的模型推理。本文以TensorFlow模型为例,介绍PAI-Blade的SDK的使用方法。

阿里云文档 2024-01-03

如何使用Blade优化通过TensorFlow训练的BERT模型

BERT(Bidirectional Encoder Representation from Transformers)是一个预训练的语言表征模型。作为NLP领域近年来重要的突破,BERT模型在多个自然语言处理的任务中取得了最优结果。然而BERT模型存在巨大的参数规模和计算量,因此实际生产中对该模型具有强烈的优化需求。本文主要介绍如何使用Blade优化通过TensorFlow训练的BERT模型。

阿里云文档 2023-09-13

如何使用Blade优化基于TensorFlow的ResNet50模型_人工智能平台 PAI(PAI)

ResNet50作为一个广泛应用的经典结构网络,其优化在多种推理部署场景中都具有很高的实用价值。本文介绍如何使用Blade优化基于TensorFlow的ResNet50模型。

阿里云文档 2023-03-24

如何将Tensorflow,Pytorch和Python等模型部署到Seldon中

DataScience集群的KubeFlow服务内置了SeldonCore组件, 可以为模型提供在线服务,基于Kubernetes,您无需关心在线服务的运维工作。您可以根据提供的dsdemo代码,将Tensorflow,Pytorch和Python等模型部署到Seldon中。

阿里云文档 2022-03-14

如何使用AICompiler对TensorFlow和PyTorch模型进行编译优化

AICompiler是集成在PAI-Blade中的AI编译优化组件,包含Static Shape和Dynamic Shape编译框架。通常您无需提供额外配置,AICompiler即可在通用透明的情况下帮助您提高推理性能。本文介绍如何使用AICompiler对TensorFlow和PyTorch模型进行编译优化。

文章 2018-01-01 来自:开发者社区

在终端设备上实现语音识别:ARM开源了TensorFlow预训练模型

本文来自AI新媒体量子位(QbitAI) 关键词识别(Keyword Spotting,KWS)是语音识别领域的一个子领域,在用户在智能设备上进行语音交互时起到重要作用。 △ 关键词识别pipeline 近日,ARM和斯坦福大学合作开源了预训练TensorFlow模型和它们的语音关键词识别代码,并将结果发表在论文Hello Edge: Keyword Spotting on Microc...

在终端设备上实现语音识别:ARM开源了TensorFlow预训练模型
文章 2017-11-09 来自:开发者社区

TensorRT加速 ——NVIDIA终端AI芯片加速用,可以直接利用caffe或TensorFlow生成的模型来predict(inference)

官网:https://developer.nvidia.com/tensorrt 作用:NVIDIA TensorRT™ is a high-performance deep learning inference optimizer and runtime that delivers low latency, high-throughput inference for deep learning....

TensorRT加速 ——NVIDIA终端AI芯片加速用,可以直接利用caffe或TensorFlow生成的模型来predict(inference)

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

人工智能

了解行业+人工智能最先进的技术和实践,参与行业+人工智能实践项目

+关注