MaxCompute AI Function提供低代码、多引擎支持的预定义函数,简化大模型与机器学习推理在大数据场景中的应用。更加便捷的通过SQL或Python调用大模型和机器学习能力。
AI Function是MaxCompute提供的一组面向AI业务场景的预定义函数,将复杂的AI推理操作封装为简洁的SQL或Python算子。用户无需编写底层模型调用代码,即可通过标准SQL或MaxFrame(分布式Python引擎)直接调用大模型或机器学习模型,显著降低用户在数据处理、大数据分析等场景的AI使用门槛。
《Confidential MaaS 技术指南》发布,从 0 到 1 构建可验证 AI 推理环境
2025 云栖大会操作系统开源与 AI 进化分论坛上,英特尔数据中心与人工智能集团首席工程师宋川、龙蜥社区安全联盟主席龙勤、OPPO 高级安全架构师杨洋、阿里云智能集团高级技术专家刘煜堃等 4 位嘉宾,共同出席并发布了《Confidential MaaS:构建可验证的推理链路数据密态流转》技术指南(下载链接见文末),该指南深入阐述如何从 0 到 1 构建可验证的 AI 推理环境,并覆盖不同场景的....
为LLM推理服务配置推理网关智能路由
传统的HTTP请求,经典负载均衡算法可以将请求均匀地发送给不同的工作负载。然而,对于LLM推理服务来说,每个请求给后端带来的负载是难以预测的。推理网关(Gateway with Inference Extension)是基于Kubernetes社区Gateway API及其Inference Extension规范实现的增强型组件,它能够通过智能路由优化在多个推理服务工作负载之间的负载均衡性能,根...
为单机/多机推理配置弹性扩缩容
在管理LLM推理服务时,需要应对模型推理过程中高度动态的负载波动。本文通过结合推理框架的自定义指标与 Kubernetes HPA(Horizontal Pod Autoscaler)机制,实现对推理服务Pod数量的自动灵活调整,从而有效提升推理服务的质量与稳定性。
基于ACK多机分布式部署DeepSeek满血版推理部署实战
本文深入解析基于阿里云容器服务ACK的DeepSeek-R1-671B大模型分布式推理实战方案。针对该千亿参数模型(671B)单卡显存不足的挑战,提出混合并行策略(Pipeline Parallelism=2 + Tensor Parallelism=8),结合阿里云Arena工具,实现在2台ecs.ebmgn8v.48xlarge(8*96GB)节点上的高效分布式部署。进一步演示如何将部署于AC...
Ray on ACK 最佳实践,保障 AI 数据处理/训练/推理等环境的安全部署
【阅读原文】戳:Ray on ACK 最佳实践,保障 AI 数据处理/训练/推理等环境的安全部署 随着 Ray 在 AI 训练、数据处理与高并发在线推理等场景中的广泛落地,越来越多的团队选择在阿里云容器服务 Kubernetes 版(以下简称 ACK)上部署 Ray 集群,以便按需弹性扩缩、统一运维。Ray 提供了 Dashboard 以及命令...
本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。
产品推荐
阿里云机器学习平台PAI
阿里云机器学习PAI(Platform of Artificial Intelligence)面向企业及开发者,提供轻量化、高性价比的云原生机器学习平台,涵盖PAI-iTAG智能标注平台、PAI-Designer(原Studio)可视化建模平台、PAI-DSW云原生交互式建模平台、PAI-DLC云原生AI基础平台、PAI-EAS云原生弹性推理服务平台,支持千亿特征、万亿样本规模加速训练,百余落地场景,全面提升工程效率。
+关注