问答 2024-06-09 来自:开发者社区

请教ModelScope:qwen2 32b出现如上错误?

请教ModelScope:qwen2 32b出现如上错误?

问答 2024-06-04 来自:开发者社区

modelscope中本地部署QWEN1.5-32B用两张A10的卡很慢,是需要做多卡优化吗?

modelscope中,本地部署QWEN1.5-32B,用两张A10的卡,吐一句话要一分钟,是需要做多卡优化吗,还是配置不够?

问答 2024-06-04 来自:开发者社区

请问modelscope中QWen-VL使用多个GPU微调,学习率一直不下降,保持不变怎么解决?

请问modelscope中QWen-VL使用多个GPU微调,学习率一直不下降,保持不变怎么解决?

问答 2024-06-04 来自:开发者社区

modelscope的Qwen有没有联网搜索的能力?

modelscope的Qwen有没有联网搜索的能力?

问答 2024-06-04 来自:开发者社区

modelscope中,知识库问答答非所问,改成langchain+ qwen +嵌入效果更好吗?

qwen32b,结合embeding,用openwebui,modelscope中,知识库问答答非所问,是不是改成langchain+ qwen +嵌入效果更好?

问答 2024-06-04 来自:开发者社区

在用qwen微调时遇到错误,是modelscope数据集格式写的不对吗?

"在用qwen微调时遇到ValueError(f'remaining_argv: {remaining_argv}') ,是modelscope数据集格式写的不对吗? "

问答 2024-05-29 来自:开发者社区

modelscope的Qwen1.5-14B-Chat-GPTQ-Int4可以修改接受最大长度吗?

"由于算力有限,24G的显卡,只能跑Qwen1.5-14B-Chat-GPTQ-Int4,但rerank之后的prompt还是比较大,大概有1万个汉字,Qwen1.5-14B-Chat-GPTQ-Int4好像就承受不了,报错了。 modelscope的Qwen1.5-14B-Chat-GPTQ-Int4可以修改接受最大长度吗? "

问答 2024-05-29 来自:开发者社区

modelscope代码下载Qwen/Qwen-VL-Chat-Int4,下载完后大小就2.8M?

"通过modelscope代码下载Qwen/Qwen-VL-Chat-Int4,下载完后大小就2.8MB,咋回事?"

问答 2024-05-29 来自:开发者社区

modelscope的qwen-vl支持多卡推理不,帮忙指导一下呢?

modelscope的qwen-vl支持多卡推理不,帮忙指导一下呢?

问答 2024-05-29 来自:开发者社区

modelscope中qwen-vl支持多卡部署么?

modelscope中qwen-vl支持多卡部署么?

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐