问答 2024-05-11 来自:开发者社区

1、通过CPU计算,联邦计算也不会节省时间,对于大模型性能会不会很差,后续会不会支持高性能GPU计算

通过CPU计算,联邦计算也不会节省时间,对于大模型性能会不会很差,后续会不会支持高性能GPU计算提速?

问答 2024-04-16 来自:开发者社区

用模型卡片 可以跑单gpu 用ModelScope类库 跑不起来呢?

"用模型卡片 可以跑单gpu 用ModelScope类库 跑不起来呢? "

问答 2024-04-03 来自:开发者社区

modelscope-funasr导出的onnx离线paraformer模型能用gpu推理吗?

modelscope-funasr导出的onnx离线paraformer模型能用gpu推理吗?

问答 2024-04-03 来自:开发者社区

函数计算FC部署的sd不使用会消耗模型加载的gpu吗?

函数计算FC部署的sd不使用会消耗模型加载的gpu吗?

问答 2024-04-02 来自:开发者社区

modelscope用swift微调加载微调后的模型,设置哪些参数能增加GPU、CPU的效率?

modelscope用swift微调加载微调后的模型,设置哪些参数能增加GPU、CPU的效率?

问答 2024-04-01 来自:开发者社区

ModelScope中我们的ASR模型和TTS模型,可以使用GPU吗?

ModelScope中我们的ASR模型和TTS模型,可以使用GPU吗?

问答 2024-03-27 来自:开发者社区

无法将ModelScope模型在GPU上推理,有解决方法吗?

"在其他的pipeline上能够调用GPU加速,但是无法将ModelScope模型在GPU上推理,有解决方法吗?"

问答 2024-03-26 来自:开发者社区

设置也无法指定gpu,是否在ModelScope模型内部修改代码?

"device = torch.device('cuda:2')with torch.cuda.device(device): rex_uninlu_base = pipeline( task=config['task'], model=config['model'], model_revision=config['model_revision']...

问答 2024-03-26 来自:开发者社区

ModelScope模型如何指定gpu运行呢?

"damo/nlp_deberta_rex-uninlu_chinese-base 这个模型在使用pipeline时,device='gpu:2'指定2卡,但是运行时,还是默认使用0卡,ModelScope模型如何指定gpu运行呢?"

问答 2024-03-20 来自:开发者社区

千问1.5 72B AWQ的量化模型无法使用多个GPU

请问千问1.5 72B AWQ的量化模型使用官方提供的代码运时,多个GPU无法并行使用,只是一个一个轮着运行。是什么问题造成的啊,代码和官方提供的代码一模一样。GPU为8个A30

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

云服务器ECS

云服务器ECS是一种安全可靠、弹性可伸缩的IaaS级云计算服务。在这里你可以获取最新的ECS产品资讯、最前沿的技术交流以及优惠活动等信息,加速自己的技术成长。

+关注