问答 2023-10-18 来自:开发者社区

modelscope源码是微调是全量微调,最新的swift可以选择lora微调和qlora是吧?

ModelScope中,modelscope源码是微调是全量微调,最新的swift可以选择lora微调和qlora是吧?

问答 2023-10-18 来自:开发者社区

ModelScope中,Swift如何把Lora的微调方法改成long Lora呢?

ModelScope中,想请教大家,最近longlora,70k的长文本损失在5%左右,就是不知道Swift如何把Lora的微调方法改成long Lora呢

问答 2023-10-18 来自:开发者社区

ModelScope中,问一下大家,有跑过qwen-14b-chat微调的么,需要多大的显存?

ModelScope中,问一下大家,有跑过qwen-14b-chat微调的么,需要多大的显存?

问答 2023-10-11 来自:开发者社区

在ModelScope中,想了解一下Qwen-14B微调用的训练数据该如何处理?

在ModelScope中,想了解一下Qwen-14B微调用的训练数据该如何处理,有相应的标注模板么?

问答 2023-10-11 来自:开发者社区

在ModelScope中, 请问Qwen-14B-Chat支持微调吗?

在ModelScope中, 请问Qwen-14B-Chat支持微调吗

问答 2023-10-08 来自:开发者社区

ModelScope中seqgpt微调的相关文档说明?

ModelScope中seqgpt微调的相关文档说明?

问答 2023-10-08 来自:开发者社区

ModelScope发现微调后原有的能力被削弱了?

ModelScope中seqgpt是不是不能仅用单一领域数据单一task去微调,发现微调后原有的能力被削弱了?

问答 2023-09-27 来自:开发者社区

ModelScope中,根据模型示例finetune微调代码测试,报错,各位大佬有遇到过吗如何解决?

ModelScope中我在使用'damo/nlp_structbert_siamese-uninlu_chinese-base'模型时,根据模型示例finetune微调代码测试,报错:AttributeError: SiameseUiePipeline: 'torch.device' object has no attribute 'lower'各位大佬有遇到过吗,如何解决呢

问答 2023-09-27 来自:开发者社区

ModelScope中在lora微调时max length超出原本模型长度比如2048,还可以继续么

ModelScope中在lora微调时max length如果超出原本模型的长度比如2048,还可以继续训练上下文学习吗?另外就是感觉长度如果想提高到8k左右,是不是要用原本预训练长度就比较长的模型呢,而不是常规的2/4k模型?还有就是长度越长显存占用提升的还挺快的,但是听说一些模型是100k的,不知道微调的时候怎么能占用显存随长度增加再慢点呢,希望能接受更长上下文

问答 2023-09-27 来自:开发者社区

ModelScope中不知道浦生的20b模型可以用之前的7b微调代码lora微调嘛?

ModelScope中不知道浦生的20b模型可以用之前的7b微调代码lora微调嘛?感谢感谢,听说效果已经接近llama2-70b模型了,想试试看

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐