AI大模型应用实践 八:如何通过RAG数据库实现大模型的私有化定制与优化
在大模型的应用中,如何实现知识的动态更新与私有化定制化,是许多企业亟需解决的挑战。大模型的知识源自预训练,因此一旦完成训练,它所掌握的知识就无法再更新。如何让大模型不断学习新知识,是行业中的一大难题。幸运的是,RAG(检索增强生成)技术的出现,为这一问题提供了完美解决方案...
一键部署Dify资源
本文介绍如何通过DMS在同一页面一键购买并配置Dify+Qwen3/DeepSeek所需的实例资源,包括RDS PostgreSQL、Redis、AnalyticDB for PostgreSQL实例。
使用通义千问大模型对PolarDB数据进行推理与交互
PolarDB for AI已将阿里云通义千问大模型部署至PolarDB集群。您可以通过SQL语句直接调用内置的通义千问大模型,从而对PolarDB集群中的数据进行推理和交互。
如何在PolarDB内部署和使用基于KVCache的大模型
KVCache(Key-Value Cache)是Transformer模型的一种优化技术,主要用于加速大模型服务。PolarDB for AI支持将基于KVCache的大模型部署至PolarDB集群并进行在线调用。
部署和调用RAG对话系统服务
阿里云人工智能平台PAI(Platform For AI)的模型在线服务EAS(Elastic Algorithm Service)提供了场景化部署方式,通过简单配置几个参数,您便可以一键部署集成了大语言模型(LLM)和检索增强生成(RAG)技术的对话系统服务,显著缩短服务部署时间。在使用该服务进行推理验证时,它能够有效地从知识库中检索相关信息,并与大语言模型的回答相结合,以产生准确且信息丰富的答...
科技云报到:大模型时代下,向量数据库的野望
科技云报到原创。 自ChatGPT爆火,国内头部平台型公司一拥而上,先后发布AGI或垂类LLM,但鲜有大模型基础设施在数据层面的进化,比如向量数据库。 在此之前,向量数据库经历了几年的沉寂期,现在似乎终于乘着ChatGPT的东风成为资本的“宠儿”。然而,一年狂飙之后,市场逐渐退潮&#x...
AI大模型独角兽 MiniMax 基于阿里云数据库 SelectDB 版内核 Apache Doris 升级日志系统,PB 数据秒级查询响应
作者:MiniMax 基础架构研发工程师 Koyomi、香克斯、Tinker 导读:早期 MiniMax 基于 Grafana Loki 构建了日志系统,在资源消耗、写入性能及系统稳定性上都面临巨大的挑战。为此 MiniMax 开始寻找全新的日志系统方案,并基于 Apache Doris 升级了日志系统,新系统已接入 MiniMax 内部所有业务线日志数据,数据规模为 PB 级, 整体可...
本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。
通义大模型
阿里云自主研发的通义大模型,凭借万亿级超大规模数据训练和领先的算法框架,实现全模态高效精准的模型服务调用。https://www.aliyun.com/product/tongyi
+关注