问答 2024-06-26 来自:开发者社区

ModelScope llm微调用python的时候,怎么使用自己的数据集?

ModelScope llm微调用python的时候,怎么使用自己的数据集?

问答 2024-06-26 来自:开发者社区

如果用python微调的话,ModelScope数据集是不是得注册?

如果用python微调的话,ModelScope数据集是不是得注册?

问答 2024-06-26 来自:开发者社区

单模态和多模态地址使用微调后的模型预测得到的结果与原生的不一致,ModelScope问题什么原因?

"{'scores': [0.49239251017570496, 0.500828742980957, 0.500383734703064]}{'scores': [0.5252724289894104, 0.5078459978103638, 0.5178839564323425]},单模态和多模态地址使用微调后的模型预测得到的结果与原生的不一致,不知这个ModelScope问题是什么原因?....

问答 2024-06-26 来自:开发者社区

重新开始ModelScope微调,将模型下载到本地,但第一次就报错,怎么处理?

"删除modelscope_cache和modelscope_tmp文件夹下的所有,重新开始ModelScope微调,第一次使用远程数据集微调(跑示例代码),即将模型下载到本地,但第一次就报错,怎么处理?如下: merge_emb = torch.cat(embs, dim=1)RuntimeError: Sizes of tensors must match except in dimen...

问答 2024-06-26 来自:开发者社区

两个保持不变微调也可以成功。但ModelScope预测还是会报错,怎么解决?

cfg['evaluation']['metrics'] = 'text-ranking-metric',改成这个可以微调成功。 试了一下, cfg.evaluation.dataloader.batch_size_per_gpu = 16 cfg.train.dataloader.batch_size_per_gpu = 3,两个保持不变微调也可以成功。但ModelScope预测还...

问答 2024-06-26 来自:开发者社区

如果基于这个替换的modelscope 模型进行自定义的数据的微调,立马报错,怎么解决?

modelscope cache文件下的bin替换,用这个替换可以支单模态和多模态.但如果基于这个替换的模型进行自定义的数据的微调,立马报错,怎么解决? 提示:build datset log error:NoneType has no len" build_dataset error log: object of type 'NoneType' has no len() build...

问答 2024-06-26 来自:开发者社区

用ModelScope微调训练成功的模型来进行单模态地址和多模态地址预测,此时发生错误,怎么解决?

"推理预测函数:def validate_or_predict(model_dir): print('gpu count:',torch._C._cuda_getDeviceCount()) print(modelscope.version) #model = Model.from_pretrained(model_dir) #print(model.cfg) #preprocess...

问答 2024-06-19 来自:开发者社区

modelscope中,微调成功后,开头提到的预测多模态地址报错,怎么解决?

cfg['evaluation']['metrics'] = "mrr@1"改成"text-ranking",modelscope中,通过github issue找到答案。但微调成功后,开头提到的预测多模态地址报错"unsuppoted datatype..GisUtt",怎么解决?

问答 2024-06-19 来自:开发者社区

modelscope中deepspeed 这些警告都要解决才行吗,现在执行 微调还是报错?

"请问 modelscope中deepspeed 这些警告都要解决才行吗,现在执行 微调还是报错? "

问答 2024-06-19 来自:开发者社区

ModelScope模型微调的时候,会显存溢出,怎么解决?

"ModelScope模型微调的时候,--eval_steps 5 \ --save_steps 100 \这两步的时候,就会显存溢出,怎么解决?"

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐