使用ACK Gateway with Inference Extension实现生成式AI推理服务灰度发布
通过ACK Gateway with Inference Extension组件,您可以在生成式AI推理服务中实现更换、升级使用的基础模型或者对多个LoRA模型进行灰度更新,将服务中断的时间降至最低。本文介绍如何使用ACK Gateway with Inference Extension组件对生成式AI推理服务进行渐进式灰度发布。
迁移存量Web项目至Funciton AI
如果您已有一个Web项目工程代码,可以通过函数计算的Funciton AI平台托管该Web项目,实现Web服务的弹性高可用、按量付费、免运维等Serverless带来的价值,同时,通过代码仓库的绑定,实现Web项目的持续部署。
迁移存量Web项目至Funciton AI
如果您已有一个Web项目工程代码,可以通过函数计算的Funciton AI平台托管该Web项目,实现Web服务的弹性高可用、按量付费、免运维等Serverless带来的价值,同时,通过代码仓库的绑定,实现Web项目的持续部署。
AI Profiling示例参考
本文以Pytorch训练场景和vLLM推理场景为例,对在ACK集群中运行的GPU容器的AI Profiling检测结果进行分析,重点阐述如何通过在线性能检测结果的可视化页面,分析Python进程、CPU调用、系统调用、CUDA库和CUDA核函数的执行过程,定位性能瓶颈,找到性能调优方向,从而提升GPU利用率和应用效率。
Nacos托管LangChain应用Prompts和配置,助力你的AI助手快速进化
作者:濯光&于怀 前言:AI应用如何实现更好的配置管理? AI 应用开发中,总有一些让人头疼的问题:敏感信息(比如 API-KEY)怎么安全存储?模型参数需要频繁调整怎么办?Prompt 模板改来改去,每次都得重启服务,太麻烦了!别急,今天我们就来聊聊如何用 Nacos 解决这些问题。 假设我们正在开发一个 AI 旅游助手,功能是根据...

AI模型推理服务在Knative中最佳配置实践
Knative和AI结合提供了快速部署、高弹性和低成本的技术优势,适用于需要频繁调整计算资源的AI应用场景,例如模型推理等。您可以通过Knative Pod部署AI模型推理任务,配置自动扩缩容、灵活分配GPU资源等功能,提高AI推理服务能力和GPU资源利用率。
阿里云 Serverless 容器服务全面升级:新增组件全托管、AI 镜像秒级拉取能力
6 月 1 日在阿里云峰会·粤港澳大湾区上,阿里云智能云原生应用平台总经理丁宇宣布,Serverless 容器服务 ASK 全面升级,进一步帮助企业和开发者降本提效。Gartner 曾预测,2023 年 70% 的 AI 应用将基于容器和 Serverless 技术开发。作为云原生的重要技术组成,K8s 已经被开发者和企业广泛认可,然而其自身复杂性和陡峭的学习曲线依然让人望而生畏。阿里云在 20....

物联网应用托管之熵博士 AI 能源顾问培训 | 学习笔记
开发者学堂课程【阿里云物联网应用托管:物联网应用托管之熵博士 AI 能源顾问培训】学习笔记,与课程紧密联系,让用户快速学习知识。课程地址:https://developer.aliyun.com/learning/course/565/detail/7720物联网应用托管之熵博士 AI 能源顾问培训内容介绍 一、极熵数据 二、研发背景 三、适用客户群 四、产品特点 五、客户价值 六、熵博士 AI....

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。
产品推荐
阿里云机器学习平台PAI
阿里云机器学习PAI(Platform of Artificial Intelligence)面向企业及开发者,提供轻量化、高性价比的云原生机器学习平台,涵盖PAI-iTAG智能标注平台、PAI-Designer(原Studio)可视化建模平台、PAI-DSW云原生交互式建模平台、PAI-DLC云原生AI基础平台、PAI-EAS云原生弹性推理服务平台,支持千亿特征、万亿样本规模加速训练,百余落地场景,全面提升工程效率。
+关注