问答 2024-07-09 来自:开发者社区

ModelScope中,原设计max epochs= 5就不行呢 ,怎么解决?

"ModelScope中,原设计max epochs= 5就不行呢 ,怎么解决? rom modelscope.msdatasets import MsDatasetds = MsDataset.load('yuyuelongmen/dinge01', subset_name='default', split='train')"

问答 2024-06-04 来自:开发者社区

ModelScope的Tools怎么描述会好点,Max跑不起来,怎么解决?

ModelScope的Tools怎么描述会好点,Max跑不起来,怎么解决?

个性化语音合成模型微调

1 课时 |
240 人已学 |
免费

ModelScope社区Library技术架构介绍

1 课时 |
215 人已学 |
免费
开发者课程背景图
问答 2024-05-25 来自:开发者社区

modelscope中,max model len最大需要有多少限制?

modelscope中,max model len最大需要有多少限制?

问答 2024-04-02 来自:开发者社区

modelscope 在python 代码里怎么把 max seq len 设置小一点?

modelscope 在python 代码里怎么把 max seq len 设置小一点?

问答 2024-03-26 来自:开发者社区

ModelScope max epochs需要手动设置吗?

ModelScope max epochs需要手动设置吗?

问答 2024-01-02 来自:开发者社区

ModelScope这个max -length是一次调用输入和输出共这么多吗?

ModelScope这个max -length是一次调用输入和输出共这么多吗,第二个问题,怎么转到具体多少个中英文字符?

问答 2023-09-27 来自:开发者社区

ModelScope中在lora微调时max length超出原本模型长度比如2048,还可以继续么

ModelScope中在lora微调时max length如果超出原本模型的长度比如2048,还可以继续训练上下文学习吗?另外就是感觉长度如果想提高到8k左右,是不是要用原本预训练长度就比较长的模型呢,而不是常规的2/4k模型?还有就是长度越长显存占用提升的还挺快的,但是听说一些模型是100k的,不知道微调的时候怎么能占用显存随长度增加再慢点呢,希望能接受更长上下文

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐