阿里云文档 2025-04-21

本地部署通义千问QwQ-32B模型

通义千问QwQ-32B是阿里云开源的320亿参数推理模型,通过大规模强化学习在数学推理、编程及通用任务中实现性能突破,支持消费级显卡本地部署,兼顾高效推理与低资源消耗。本文将介绍如何利用vLLM作为通义千问QwQ-32B模型的推理框架,在一台阿里云GPU实例上构建通义千问QwQ-32B的推理服务。

阿里云文档 2025-04-16

双机分布式部署满血版Deepseek模型

DeepSeek-V3/R1是一个具有超过600亿参数的专家混合(MoE)模型,且已开源其模型权重。本文将介绍如何利用vllm作为DeepSeek模型的推理框架,在两台ebmgn8v实例上构建DeepSeek-V3/R1的推理服务。您无需进行额外配置,即可实现开箱即用。

阿里云文档 2025-04-15

双机分布式部署满血版Deepseek模型

DeepSeek-V3/R1是一个具有超过600亿参数的专家混合(MoE)模型,且已开源其模型权重。本文将介绍如何利用vllm作为DeepSeek模型的推理框架,在两台ebmgn8v实例上构建DeepSeek-V3/R1的推理服务。您无需进行额外配置,即可实现开箱即用。

阿里云文档 2025-04-08

本地单机部署满血版DeepSeek模型

DeepSeek-V3/R1是一个具有超过600亿参数的专家混合(MoE)模型,且已开源其模型权重。本文将介绍如何利用SGLang作为DeepSeek模型的推理框架,在一台ebmgn8v实例上构建DeepSeek-V3/R1的推理服务。您无需进行额外配置,即可实现开箱即用。

文章 2025-03-24 来自:开发者社区

轻量级AI革命:无需GPU就能运算的DeepSeek-R1-1.5B模型及其低配部署指南

随着人工智能技术的快速发展,大语言模型已成为推动产业智能化的重要工具。在这一领域,DeepSeek系列模型凭借其创新的架构和高效的性能,成为众多开发者和企业关注的焦点。而其中的R1-1.5B模型,作为家族中参数量最小、资源需求最低的版本,更是备受青睐。下面就让我们来看看DeepSeek各模型之间的性能差异、应用场景࿰...

轻量级AI革命:无需GPU就能运算的DeepSeek-R1-1.5B模型及其低配部署指南
阿里云文档 2025-03-18

如何本地部署DeepSeek

DeepSeek-V3/R1是拥有600B以上参数量的专家混合(MoE)模型,并已经开源了模型权重。本文为您介绍在GPU实例上部署DeepSeek-R1蒸馏模型推理服务。

问答 2023-06-23 来自:开发者社区

我创建了一个使用 GPU 实例的函数,并且我把模型部署到 oss 了。我在服务配置中已经配置了 os

我创建了一个使用 GPU 实例的函数,并且我把模型部署到 oss 了。我在服务配置中已经配置了 oss 挂载点,但是在测试函数时发现函数每次加载存储在 oss 中的模型权重都会超时,然后返回 412 码。 我的 oss 和函数都部署在美东区域。 请问有什么解决思路呢?

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

云服务器ECS

做技术先进、性能优异、稳如磐石的弹性计算!

+关注