问答 2024-05-15 来自:开发者社区

ModelScope中,使用qlora微调qwen1.5-14b-chat-int4,报错了?

"ModelScope中,使用qlora微调qwen1.5-14b-chat-int4,报错了,是微调参数和报错吗? CUDA_VISIBLE_DEVICES=2 \swift sft \ --model_id_or_path /root/Qwen1.5-14B-Chat-GPTQ-Int4 \ --model_revision master \ --sft_type lo...

问答 2024-05-01 来自:开发者社区

qwen-vl可以用lora而不是qlora去微调int4版本的ModelScope模型吗?

qwen-vl可以用lora而不是qlora去微调int4版本的ModelScope模型吗?

问答 2024-03-18 来自:开发者社区

modelscope中,infer_main是不是不支持微调后的int4模型?

"modelscope中,infer_main是不是不支持微调后的int4模型,要通过AutoModelForCausalLM.from_pretrained加载吗? "

问答 2024-02-01 来自:开发者社区

微调Qwen-14b-chat -int8 所需要的云服务器的配置最低是多少

微调Qwen-14b-chat -int8 所需要的云服务器的配置最低是多少

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。