阿里云文档 2025-02-17

在GPU实例上部署DeepSeek-R1-Distill模型

DeepSeek-V3/R1是拥有600B以上参数量的专家混合(MoE)模型,并已经开源了模型权重。本文为您介绍在GPU实例上部署DeepSeek-R1-Distill模型推理服务。

阿里云文档 2025-02-12

使用vLLM镜像快速构建模型的推理环境

在GPU的实例上部署vLLM镜像后,可以帮助您快速且方便地构建大语言模型(例如Llama模型、ChatGLM模型、百川Baichuan模型或通义千问Qwen模型)的推理环境,主要应用在智能对话系统、文本分类或分析等自然语言处理业务场景,您无需深入了解底层硬件,也无需额外配置即可开箱即用。本文为您介绍如何在GPU实例上使用vLLM容器镜像来快速构建大语言模型的推理服务。

阿里云文档 2024-12-27

使用DeepGPU-LLM镜像构建模型的推理环境

在GPU实例上配置DeepGPU-LLM容器镜像后,可以帮助您快速构建大语言模型(例如Llama模型、ChatGLM模型、百川Baichuan模型或通义千问Qwen模型)的推理环境,主要应用在智能对话系统、文本分析、编程辅助等自然语言处理业务场景,您无需深入了解底层的硬件优化细节,镜像拉取完成后,无需额外配置即可开箱即用。本文为您介绍如何在GPU实例上使用DeepGPU-LLM容器镜像构建大语言模...

阿里云文档 2024-12-27

使用TensorRT-LLM构建模型的推理环境

在GPU的实例上安装推理引擎TensorRT-LLM,可以帮助您快速且方便地构建大语言模型(例如Llama模型、ChatGLM模型、百川Baichuan模型或通义千问Qwen模型)的推理环境,主要应用在智能对话系统、文本分析等自然语言处理业务场景。本文为您介绍如何在GPU实例上安装和使用TensorRT-LLM来快速构建大语言模型的高性能推理优化功能。

问答 2024-08-28 来自:开发者社区

modelscope-funasr怎么设置使得模型可以用CUDA0以外的其他gpu?

modelscope-funasr怎么设置使得模型可以用CUDA0以外的其他gpu?设置device='cuda:1'模型在cuda 0之外的gpu上面做推理就会出现 RuntimeError: Expected all tensors to be on the same device, but found at least two devices, cuda:1 and cuda:0

问答 2024-08-13 来自:开发者社区

ModelScope没有看见复制,模型选择、cpu/GPU选择有特别要求吗,有详细说明吗?

ModelScope没有看见复制,模型选择、cpu/GPU选择有特别要求吗,有详细说明吗?

问答 2024-08-06 来自:开发者社区

modelscope模型文件都下载成功了,部署报错,是不是说只能在GPU下运行,CPU不行吗?

"请问modelscope模型文件都下载成功了,部署报错,是不是说只能在GPU下运行,CPU不行吗? "

问答 2024-06-12 来自:开发者社区

modelscope-funasr从磁盘加载模型,且使用gpu,但gpu没有被启动,怎么回事?

modelscope-funasr从磁盘加载模型,且使用gpu,照着下图例子,但gpu没有被启动,怎么回事?

问答 2024-05-25 来自:开发者社区

请问qwen-72b-chat ModelScope模型本地部署推理需要多少GPU显存?

请问qwen-72b-chat ModelScope模型本地部署推理需要多少GPU显存?

问答 2024-05-23 来自:开发者社区

modelscope-funasr 里面的各种模型分别需要gpu多少G ?

modelscope-funasr 里面的各种模型分别需要gpu多少G 有量化的具体数据不,支持多路复用吗?

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

云服务器ECS

云服务器ECS是一种安全可靠、弹性可伸缩的IaaS级云计算服务。在这里你可以获取最新的ECS产品资讯、最前沿的技术交流以及优惠活动等信息,加速自己的技术成长。

+关注