问答 2024-03-05 来自:开发者社区

ModelScope中我现在在通过qwen模型加向量库搭建一个rag应用,应该不涉及微调吧?

ModelScope中我现在在通过qwen模型加向量库搭建一个rag应用,应该不涉及微调,使用qwen 7b 模型。 如果本地部署的话,硬件推荐是怎么样的呢?16g显存是否可以呢?

问答 2024-03-05 来自:开发者社区

ModelScope中加自定义数据集是在直接编辑qwen下的stf.sh,如下图吗?

ModelScope中加自定义数据集是在直接编辑qwen下的stf.sh,如下图吗?

问答 2024-02-27 来自:开发者社区

modelscope 支持Qwen-7B-Chat 的流式输出吗?

modelscope 支持Qwen-7B-Chat 的流式输出吗,各位大佬知道哪里有对应的流式输出的例程吗或者文档地址吗

问答 2024-02-27 来自:开发者社区

请问ModelScope有没有人用qwen72b的?

请问ModelScope有没有人用qwen72b的?我目前遇到一个问题,就是生成的时候总是自动断掉,还没生成完就结束了,我设置的max_new_tokens是10000,文档长度肯定是不到1万的, 比如像这样,生成到这里就自动停了,都不知道为啥

问答 2024-02-26 来自:开发者社区

ModelScope的Qwen1.5-14B-Chat需要多少大显存?

ModelScope的Qwen1.5-14B-Chat需要多少大显存?有2块4090,48G够吗? ValueError: The model's max seq len (32768) is larger than the maximum number of tokens that can be stored in KV cache (12896). Try increasing gpu_me....

问答 2024-02-26 来自:开发者社区

你好,问下ModelScope在运行QWEN-7B-CHAT模型时,运行时报以下是什么问题?

你好,问下ModelScope在运行QWEN-7B-CHAT模型时,运行model = AutoModelForCausalLM.from_pretrained("qwen/Qwen-7B-Chat", device_map="auto", trust_remote_code=True, bf16=True).eval()语句时报以下错误是什么原因?Error no file named pyt....

问答 2024-02-26 来自:开发者社区

请问ModelScope的qwen模型支持微调吗?

请问ModelScope的qwen模型支持微调吗?

问答 2024-02-26 来自:开发者社区

ModelScope是不是 Qwen1.5-14B-Chat是不是需要 cuda 12.1 才能跑?

想问下,ModelScope是不是 Qwen1.5-14B-Chat,是不是需要 cuda 12.1 才能跑?我试着升级vllm 到 0.3.1,但是0.3.1对应的应该是 CUDA 12.1,当前我的环境是CUDA 11.8.这样升级后,环境能跑Qwen-14B-Chat这种旧版本的模型吗?

问答 2024-02-26 来自:开发者社区

请问ModelScope最新版本的vllm,可以跑 Qwen-14B-Chat 吗?

请问ModelScope最新版本的vllm,可以跑 Qwen-14B-Chat 吗?

问答 2024-02-26 来自:开发者社区

ModelScope的qwen-1_8b-chat推理接口改写有可参考的资料吗?

ModelScope的qwen-1_8b-chat推理接口改写有可参考的资料吗?

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐