问答 2024-06-26 来自:开发者社区

有人测过qwen2-72B-int4么,ModelScope量化后,精度下降了很多?

有人测过qwen2-72B-int4么,ModelScope量化后,精度下降了很多?

问答 2024-05-25 来自:开发者社区

7b chat做modelscope awq的int4量化,特别容易爆显存,怎么解决?

用swift做对baichuan2 7b chat做modelscope awq的int4量化,特别容易爆显存,怎么解决?

问答 2024-05-15 来自:开发者社区

ModelScope中,P100是跑不了,p40 不支持int4量化吗?

ModelScope中,P100是跑不了,p40 不支持int4量化吗?

问答 2024-02-13 来自:开发者社区

ModelScope中,Int8等量化模型也属于千问下面的吗?

ModelScope中,Int8等量化模型也属于千问下面的吗?

文章 2024-01-23 来自:开发者社区

使用NVIDIA TensorRT-LLM支持CodeFuse-CodeLlama-34B上的int4量化和推理优化实践

$stringUtil.substring( $!{XssContent1.description},200)...

使用NVIDIA TensorRT-LLM支持CodeFuse-CodeLlama-34B上的int4量化和推理优化实践
问答 2024-01-17 来自:开发者社区

16g显存的显卡不知道能不能运行,怎么设置modelscope 成int8量化?

16g显存的显卡不知道能不能运行,怎么设置modelscope 成int8量化?

文章 2023-12-15 来自:开发者社区

Int8量化算子在移动端CPU的性能优化

$stringUtil.substring( $!{XssContent1.description},200)...

Int8量化算子在移动端CPU的性能优化
文章 2023-10-24 来自:开发者社区

TensorRT-LLM在CodeFuse-CodeLlama-34B上的int4量化实践

概述本文档是利用TensorRT-LLM(early access)对 CodeFuse-CodeLlama-34B 进行int4量化的实践(注:TensorRT-LLM(GA) 已发布)。Codefuse是由蚂蚁集团开发的专门用于支持整个软件开发生命周期的大型代码语言模型(Code LLMs),涵盖设计、需求、...

TensorRT-LLM在CodeFuse-CodeLlama-34B上的int4量化实践
问答 2023-07-20 来自:开发者社区

modelscope有提供baichuan13B系列的int8或int4量化模型吗?

modelscope有提供baichuan13B系列的int8或int4量化模型吗?

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。