问答 2024-08-13 来自:开发者社区

ModelScope导出为ollama的时候提示报错, 怎么解决?

"ModelScope导出为ollama的时候提示报错, 怎么解决? C:\Users\Administrator>ollama create my-custom-model -f C:\Users\Administrator\qwen2-1_5b-instruct-ollama\Modelfiletransferring model dataunpacking model metadat....

问答 2024-05-25 来自:开发者社区

modelscope导出onnx模型的问题,一直报错怎么解决?

"modelscope导出onnx模型的问题,一直报错怎么解决? 按照官方源码的导出方式重写了一个导出代码,但是导出报错: "

问答 2024-04-23 来自:开发者社区

modelscope不导出后的onnx模型无法正常推理,导出是有报错吗?

https://modelscope.cn/docs/%E6%A8%A1%E5%9E%8B%E7%9A%84%E5%AF%BC%E5%87%BA modelscope不导出后的onnx模型无法正常推理,导出是有报错吗? https://modelscope.cn/docs/%E6%A8%A1%E5%9E%8B%E7%9A%84%E5%AF%BC%E5%87%BA

问答 2024-03-20 来自:开发者社区

modelscope-funasr导出时不支持量化 quantize=true报错,怎么解决?

damo/punc_ct-transformer_zh-cn-common-vad_realtime-vocab272727和damo/speech_fsmn_vad_zh-cn-16k-common-pytorch modelscope-funasr导出时不支持量化 quantize=true报错,怎么解决?TypeError: export_onnx() got multiple val...

问答 2024-02-01 来自:开发者社区

modelscope-funasr==0.8.7 导出onnx模型的时候报错,怎么解决?

modelscope-funasr==0.8.7 导出onnx模型的时候报错,怎么解决?

问答 2023-08-25 来自:开发者社区

ModelScope space-T-cn模型导出报错是没办法导出这个模型吗?

ModelScope space-T-cn模型导出报错是没办法导出这个模型吗? 'table-question-answering' is not supported currently."

问答 2023-07-12 来自:开发者社区

请问modelscope中我在导出模型为onnx格式的时候遇到上面这个报错,请问是什么原因呢?

请问modelscope中我在导出模型为onnx格式的时候遇到上面这个报错,请问是什么原因呢?是根据这个步骤来的。

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐