问答 2025-03-18 来自:开发者社区

千问2.5-14B-Instruct-GPTQ-Int8支持微调吗

千问2.5-14B-Instruct-GPTQ-Int4、Int8这种模型支持自我认知微调和agent微调吗?

问答 2024-05-22 来自:开发者社区

ModelScope中,使用swift对qwen-7b-chat-int4进行微调,图中报错咋办?

"ModelScope中,使用swift对qwen-7b-chat-int4进行微调的时候图中报错有没有解决方案?"

问答 2023-10-31 来自:开发者社区

使用魔搭swift对qwen-14b-chat-int8微调,官方脚本,报错

使用魔搭来下载的模型,测试模型可以正常使用。安装配置最新的modelscope/swift , 然后使用提供的example里面的scripts来进行测试,运行qwen-14b-chat-int8/qlora/sft.sh , 装载完模型过后,报错,信息如下: Loading checkpoint shards: 100%|████████████████████████████████████....

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。