问答 2025-08-03 来自:开发者社区

ModelScope接口访问qwen-coder,报错409

报错429 status code (no body)但是我的api调用数显示为500,总额度为2000

问答 2025-07-14 来自:开发者社区

使用modelscope、Qwen1.8B-chat 模型推理时报错编码错误

使用modelscope、Qwen1.8B-chat 模型推理时报错:UnicodeDecodeError: 'ascii' codec can't decode byte 0xe6 in position 0: ordinal not in range(128) 代码如下: from modelscope import AutoModelForCausalLM, AutoTokenizer, ....

问答 2024-12-17 来自:开发者社区

在4卡4090(24G)服务器上利用modelscope离线部署Qwen2vl-Flux时报错

报错提示不能在不同显卡上部署,请问目前Qwen2vl-Flux是否支持加载到不同显卡上工作。

文章 2024-11-26 来自:开发者社区

探索大模型部署:基于 VLLM 和 ModelScope 与 Qwen2.5 在双 32G VGPU 上的实践之旅

探索大模型部署:基于 VLLM 和 ModelScope 与 Qwen2.5 在双 32G VGPU 上的实践之旅 在人工智能的广袤天地中,大模型的应用与部署犹如一场激动人心的冒险。今天,我将与大家分享一段基于 VLLM 和 ModelScope 对 Qwen2.5 模型进行部署,并在两张 32G VGPU 上运行的精彩历程,...

问答 2024-08-26 来自:开发者社区

想请问下ModelScope里Vllm部署了qwen1.5-32B之后,它无限输出日志 怎么解决?

想请问下ModelScope里Vllm部署了qwen1.5-32B之后,这个模型一直在无限输出日志,试了几种办法都关不掉,我都没用这个模型,几天时间照样把GPU磁盘撑满了。有什么办法吗

问答 2024-08-23 来自:开发者社区

modelscope微调后的多模态大模型Qwen-VL和graghrag相结合构建知识库的案例有嘛?

modelscope微调后的多模态大模型Qwen-VL和graghrag相结合构建知识库的案例有嘛?

问答 2024-08-17 来自:开发者社区

在modelscope上下载qwen2的0.5版本,左边这个正常加载,右边这个报错,为什么?

在modelscope上下载qwen2的0.5版本,有两个下载链接,左边这个正常加载,右边这个报错,请问是什么原因呢?这两个模型下载地址对应的模型是有哪些不同吗?

问答 2024-08-16 来自:开发者社区

ModelScope中qwen为什么不支持寻常其他大模型都支持的特殊字符?

ModelScope中qwen为什么不支持寻常其他大模型都支持的特殊字符,而是仅支持这些呢?

问答 2024-08-16 来自:开发者社区

ModelScope我微调Qwen2-7B-Instruct,loss一直不变是什么原因?

ModelScope我微调Qwen2-7B-Instruct,使用项目的python脚本,loss一直不变是什么原因,有大佬能指点一下吗?

问答 2024-08-13 来自:开发者社区

ModelScope中,qwen2-72b-instruct-awq 支持 json模式吗?

ModelScope中,qwen2-72b-instruct-awq 支持 json模式吗?

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐