阿里云文档 2026-03-06

本地部署千问QwQ-32B模型

千问QwQ-32B是阿里云开源的320亿参数推理模型,通过大规模强化学习在数学推理、编程及通用任务中实现性能突破,支持消费级显卡本地部署,兼顾高效推理与低资源消耗。本文将介绍如何利用vLLM作为千问QwQ-32B模型的推理框架,在一台阿里云GPU实例上构建千问QwQ-32B的推理服务。

阿里云文档 2025-12-19

双机分布式部署满血版Deepseek模型

DeepSeek-V3/R1是拥有671B参数的专家混合(MoE)模型,且已开源其模型权重。本文将介绍如何利用vllm作为DeepSeek模型的推理框架,在两台ebmgn8v实例上构建DeepSeek-V3/R1的推理服务。

阿里云文档 2025-04-16

双机分布式部署满血版Deepseek模型

DeepSeek-V3/R1是一个具有超过600亿参数的专家混合(MoE)模型,且已开源其模型权重。本文将介绍如何利用vllm作为DeepSeek模型的推理框架,在两台ebmgn8v实例上构建DeepSeek-V3/R1的推理服务。您无需进行额外配置,即可实现开箱即用。

阿里云文档 2025-04-08

本地单机部署满血版DeepSeek模型

DeepSeek-V3/R1是一个具有超过600亿参数的专家混合(MoE)模型,且已开源其模型权重。本文将介绍如何利用SGLang作为DeepSeek模型的推理框架,在一台ebmgn8v实例上构建DeepSeek-V3/R1的推理服务。您无需进行额外配置,即可实现开箱即用。

阿里云文档 2025-03-18

如何本地部署DeepSeek

DeepSeek-V3/R1是拥有600B以上参数量的专家混合(MoE)模型,并已经开源了模型权重。本文为您介绍在GPU实例上部署DeepSeek-R1蒸馏模型推理服务。

文章 2024-10-18 来自:开发者社区

如何使用服务器训练模型

如何使用服务器训练模型 大家好,这里是肆十二,之前有小伙伴反馈说自己的电脑只有cpu,没有GPU,也想要体验一下使用gpu训练模型,或者有的小伙伴反馈说自己所在的实验室提供了linux的服务器,但是不怎么会用,本期我们就来说说如何使用服务器来训练自己的模型。 获取服务器 如果你的实验室有服务器,那你就直接使用你们实验室的服务器即可,一般实验室的老师会提供给你服务器的IP地址、用户名以及密码这些信....

如何使用服务器训练模型
文章 2024-06-14 来自:开发者社区

使用高性能服务器训练StableDiffusion——人物模型.safetensors

基础测试 先基础测试一下。 默认是中文的。 ...

使用高性能服务器训练StableDiffusion——人物模型.safetensors
问答 2023-02-21 来自:开发者社区

eas实例没有gpu服务器 gpu训练的模型可以用cpu线上预测吗?

eas实例没有gpu服务器 gpu训练的模型可以用cpu线上预测吗?

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

云服务器ECS

做技术先进、性能优异、稳如磐石的弹性计算!

+关注