MaxCompute AI Function提供低代码、多引擎支持的预定义函数,简化大模型与机器学习推理在大数据场景中的应用。更加便捷的通过SQL或Python调用大模型和机器学习能力。
AI Function是MaxCompute提供的一组面向AI业务场景的预定义函数,将复杂的AI推理操作封装为简洁的SQL或Python算子。用户无需编写底层模型调用代码,即可通过标准SQL或MaxFrame(分布式Python引擎)直接调用大模型或机器学习模型,显著降低用户在数据处理、大数据分析等场景的AI使用门槛。
如何破解AI推理延迟难题:构建敏捷多云算力网络
正如在上一篇文章《AI创业公司如何突破算力瓶颈,实现高效发展?》中所述,高效调度算力只是AI公司突破瓶颈的第一步。若没有与之匹配的网络架构,再精巧的算力策略也难以落地,算法更无法转化为稳定交付的服务。 那么,这套支撑AI商品化的网络架构,究竟是怎样的? AI企业典型IT架构解析 随着文生图、文生视频等大模型应用的产品化落地,越来越多AI企业在“算法创新...
为LLM推理服务配置推理网关智能路由
传统的HTTP请求,经典负载均衡算法可以将请求均匀地发送给不同的工作负载。然而,对于LLM推理服务来说,每个请求给后端带来的负载是难以预测的。推理网关(Gateway with Inference Extension)是基于Kubernetes社区Gateway API及其Inference Extension规范实现的增强型组件,它能够通过智能路由优化在多个推理服务工作负载之间的负载均衡性能,根...
为单机/多机推理配置弹性扩缩容
在管理LLM推理服务时,需要应对模型推理过程中高度动态的负载波动。本文通过结合推理框架的自定义指标与 Kubernetes HPA(Horizontal Pod Autoscaler)机制,实现对推理服务Pod数量的自动灵活调整,从而有效提升推理服务的质量与稳定性。
基于ACK多机分布式部署DeepSeek满血版推理部署实战
本文深入解析基于阿里云容器服务ACK的DeepSeek-R1-671B大模型分布式推理实战方案。针对该千亿参数模型(671B)单卡显存不足的挑战,提出混合并行策略(Pipeline Parallelism=2 + Tensor Parallelism=8),结合阿里云Arena工具,实现在2台ecs.ebmgn8v.48xlarge(8*96GB)节点上的高效分布式部署。进一步演示如何将部署于AC...
让大模型“言简意赅”:马里兰大学团队破解AI推理冗长之谜
这项由马里兰大学的程正祥、陈东平、傅明洋和周天怡团队完成的研究发表于2025年6月17日的预印本arXiv:2506.14755v1,专门针对大型推理模型的效率优化问题。有兴趣深入了解的读者可以通过GitHub代码库https://github.com/zxiangx/LC-R1访问完整研究成果。 当下最先进的AI推理模型,比如OpenAI的o1和DeepSeek-R...
本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。
产品推荐
阿里云机器学习平台PAI
阿里云机器学习PAI(Platform of Artificial Intelligence)面向企业及开发者,提供轻量化、高性价比的云原生机器学习平台,涵盖PAI-iTAG智能标注平台、PAI-Designer(原Studio)可视化建模平台、PAI-DSW云原生交互式建模平台、PAI-DLC云原生AI基础平台、PAI-EAS云原生弹性推理服务平台,支持千亿特征、万亿样本规模加速训练,百余落地场景,全面提升工程效率。
+关注