问答 2023-04-16 来自:开发者社区

请问下GridVLP模型支持GPU吗? 我们修改了模型,启用GPU,发现GPU模块只是加载了,但实际

请问下GridVLP模型支持GPU吗? 我们修改了模型,启用GPU,发现GPU模块只是加载了,但实际上GPU上没有任务运行

文章 2023-04-14 来自:开发者社区

科技云报道:GPU受限,国内AI大模型能否交出自己的答卷?

科技云报道原创。这个4月,成为国产大模型混战期。继百度之后,阿里、华为、京东、360等大模型也陆续浮出水面,大模型军备竞赛正式开启。4月7日,阿里云宣布自研大模型“通义千问”开始邀请企业用户测试体验。4月8日,华为云人工智能领域首席科学家田奇现身《人工智能大模型技术高峰论坛》,分享了华为云盘古大模型的进展及其应用。同日,京东集团副总裁何晓冬表示,京东将在今年发布新一代产业大模型,言犀是“京东版”....

科技云报道:GPU受限,国内AI大模型能否交出自己的答卷?
问答 2023-04-11 来自:开发者社区

ZhipuAI/ChatGLM-6B ModelScope这个模型 没有GPU 不能用吗?

ZhipuAI/ChatGLM-6B ModelScope这个模型 没有GPU 不能用吗? RuntimeError: ChatGLM6bTextGenerationPipeline: Found no NVIDIA driver on your system. Please check that you have an NVIDIA GPU and installed a driver f...

问答 2023-04-10 来自:开发者社区

机器学习PAI现在有个模型用blade跟trt比,gpu利用率会高20%左右,这个一般怎么分析一下?

请教一下,机器学习PAI现在有个模型用blade跟trt比,gpu利用率会高20%左右,这个一般怎么分析一下?nsys可以看到有些matmul的kernel选择跟trt是不同的

问答 2023-04-02 来自:开发者社区

社区里面有很多模型,每个模型所需要的部署资源,比如占用的GPU显存,推理速度等有参考数据吗?

作为开发者或者C端用户,很多时候是零碎的体验需求,clone代码或者下载模型到本地试错比较耗费时间。 如果平台能给出推理的性能测试参考,可以帮助开发者快速找到合适的模型。

问答 2023-03-27 来自:开发者社区

GPU 自定义容器,模型已经提前下载到 nas 里了,但是整体启动时间还是超过 120s,能不能屏蔽

GPU 自定义容器,模型已经提前下载到 nas 里了,但是整体启动时间还是超过 120s,能不能屏蔽掉 120s 的健康检查

问答 2023-03-24 来自:开发者社区

请问弹性计算里面的gpu资源,可以用来训练模型吗,还是只是有个模型容器之后,进行调用?

请问弹性计算里面的gpu资源,可以用来训练模型吗,还是只是有个模型容器之后,进行调用?

问答 2023-03-02 来自:开发者社区

damo/nlp_gpt3_text-generation_2.7B用这个模型推理必须要用GPU吗?

damo/nlp_gpt3_text-generation_2.7B用这个模型推理必须要用GPU吗?

问答 2023-02-24 来自:开发者社区

尝试快速体验语音模型推理报GPU的错

尝试快速体验语音模型推理报GPU的错

问答 2023-02-24 来自:开发者社区

模型推荐的GPU配置?

请问能否在文档中注明一下推荐GPU配置?

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

云服务器ECS

云服务器ECS是一种安全可靠、弹性可伸缩的IaaS级云计算服务。在这里你可以获取最新的ECS产品资讯、最前沿的技术交流以及优惠活动等信息,加速自己的技术成长。

+关注