阿里云文档 2025-10-23

在ACK中快速体验大语言模型推理服务

ACK托管集群Pro版提供了测试环境和生产环境部署方案,在无需管理底层硬件与依赖的前提下,快速验证大模型的推理能力。解决开发者在本地验证大语言模型时面临的GPU资源不足和环境配置复杂等问题。

问答 2024-07-09 来自:开发者社区

ModelScope中,关于不同参数量大模型部署推理的硬件配比指标,有参考吗?

ModelScope中,关于不同参数量大模型部署推理的硬件配比指标,有参考吗?

问答 2024-06-26 来自:开发者社区

ModelScope有部署qwen2-72b的么,正常推理需要多大的显存?

请问一下,ModelScope有部署qwen2-72b的么,正常推理需要多大的显存?

问答 2024-06-09 来自:开发者社区

想问一下ModelScope多卡部署后,使用了多张卡的显存。是使用多张卡的GPU进行推理吗?

想问一下ModelScope多卡部署后,使用了多张卡的显存。多个人提问时,是使用多张卡的GPU进行推理吗?还是多个提问都会落到一个卡的GPU处理呢?

问答 2024-06-05 来自:开发者社区

modelscope-funasr部署后模型的推理结果,识别效果会下降,有什么改善方式吗?

modelscope-funasr部署后模型的推理结果(包括断句、文本逆正则化)相较于单独的asr模型识别,识别效果会下降,有什么改善方式吗?例如:单独的asr:去k栋一零五您的称呼是什么姓赵模型部署后:去k栋105,您的称呼是什么进校

问答 2024-05-21 来自:开发者社区

ModelScope部署的Qwen1.5-110B-Chat-GPTQ-Int4,为啥推理异常慢?

ModelScope部署的Qwen1.5-110B-Chat-GPTQ-Int4,为啥推理异常慢?

问答 2024-04-09 来自:开发者社区

modelscope中vllm部署怎么批量推理?

modelscope中vllm部署怎么批量推理?

问答 2024-03-26 来自:开发者社区

qwen-72b量级的大模型,ModelScope部署推理都怎么更快加速?

qwen-72b量级的大模型,ModelScope部署推理都怎么更快加速?

问答 2023-09-19 来自:开发者社区

在ModelScope中,ms-agent本地部署之后,推理速度有点慢,能给点优化建议吗?

在ModelScope中,ms-agent本地部署之后,推理速度有点慢,能给点优化建议吗?

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐