问答 2024-06-19 来自:开发者社区

LLM大语言模型报了这么一个错误,是不是Qwen2的加载方式变了?

LLM大语言模型报了这么一个错误,是不是Qwen2的加载方式变了?

问答 2024-06-19 来自:开发者社区

LLM大语言模型的Qwen2-72B用哪个版本的deepGPU呢?

LLM大语言模型的Qwen2-72B用哪个版本的deepGPU呢?当前CUDA是12.1

文章 2024-05-01 来自:开发者社区

LLM性能最高60%提升!谷歌ICLR 2024力作:让大语言模型学会“图的语言”

在人工智能领域,大语言模型(LLM)的发展一直是研究者们关注的焦点。近年来,随着技术的不断进步,LLM在理解和生成自然语言方面取得了显著的成就。然而,尽管如此,LLM在处理某些复杂任务时仍面临挑战。谷歌在ICLR 2024的一篇研究论文中提出了一种创新的方法,旨在让大语言模型学会理解和...

文章 2024-04-28 来自:开发者社区

【LLM】能够运行在移动端的轻量级大语言模型Gemma实践

[toc] 轻量级模型是 AI 模型,与传统模型相比,设计得更小、更高效。轻量模型表现为: 更快的处理速度,因为它们需要更少的计算能力来在笔记本电脑甚至智能手机等资源较少的设备上运行和操作。减少内存使用量,因为它们占用的内存空间更少。降低运行模型所需的计算成本。 这种模型是通过使用更少的参数、创建优化的架构和量化࿰...

问答 2024-04-17 来自:开发者社区

deepgpu-LLM大语言模型 支持切换 adapter(lora) 吗?

deepgpu-LLM大语言模型 支持切换 adapter(lora) 吗?类似这样:https://huggingface.co/docs/transformers/main/en/peft#add-a-new-adapter, model.set_adapter("adapter_1")

问答 2024-04-17 来自:开发者社区

在LLM大语言模型如果我开多进程同时调用的话,对性能会有提升吗?

在LLM大语言模型如果我开多进程同时调用的话,对性能会有提升吗?

问答 2024-04-17 来自:开发者社区

在LLM大语言模型deepgpu_llm 是按 batch=10000 的方式来推理的吗?

在LLM大语言模型如果输入 list 有 10000 个 sequence,deepgpu_llm 是按 batch=10000 的方式来推理的吗? 以 vllm 为例,from vllm import LLMllm = LLM(..., max_num_seqs=8) # BATCHoutputs = llm.generate( prompts = [ "你好,我的名字叫"...

问答 2024-04-17 来自:开发者社区

LLM大语言模型这个接口可以配置 batch 吗?默认是 batch=1 吗还是多少?

LLM大语言模型这个接口可以配置 batch 吗?默认是 batch=1 吗还是多少?接口 model.generate([start_ids], generation_config)我用的是from deepgpu_llm.qwen_model import qwen_model

文章 2024-03-30 来自:开发者社区

基于LLM(Large Language Model,大语言模型)的智能问答系统

基于LLM(Large Language Model,大语言模型)的智能问答系统是一种利用先进的人工智能技术,尤其是自然语言处理(NLP)技术,来构建能够理解和回答用户问题的系统。这种系统通过训练大量文本数据,学习语言的规律和模式,从而能够理解和生成人类语言。 LLM智能...

问答 2024-03-20 来自:开发者社区

LLM大语言模型的centos系统的命令有吗?

LLM大语言模型的centos系统的命令有吗?7.9。$cat /etc/redhat-releaseCentOS Linux release 7.9.2009 (Core)

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

{"cardStyle":"productCardStyle","productCode":"kvstore","productCardInfo":{"productTitle":"Tair KVCache","productDescription":"阿里云数据库 Tair KVCache 为 LLM 推理提供分布式动态分级缓存服务,通过软硬协同设计实现智能路由和缓存资源的最优管理,优化 GPU 服务器资源利用率的同时提升 LLM 推理的速度和吞吐性能,实现降本增效。","productContentLink":"https://www.aliyun.com/product/kvcache","isDisplayProductIcon":true,"productButton1":{"productButtonText":"了解详情","productButtonLink":"https://www.aliyun.com/product/kvcache"},"productButton2":{"productButtonText":"立即咨询","productButtonLink":"https://page.aliyun.com/form/act176452088/index.htm?spm=5176.30063692.J__Z58Z6CX7MY__Ll8p1ZOR.1.66a55ac316TezL"},"productButton3":{"productButtonText":"","productButtonLink":""},"productPromotionInfoBlock":[{"$id":"0","productPromotionGroupingTitle":"最新活动","productPromotionInfoFirstText":"","productPromotionInfoFirstLink":"","productPromotionInfoSecondText":"邀请试用","productPromotionInfoSecondLink":"https://page.aliyun.com/form/act176452088/index.htm?spm=5176.30063692.J__Z58Z6CX7MY__Ll8p1ZOR.3.66a55ac316TezL"},{"$id":"1","productPromotionGroupingTitle":"快速入门","productPromotionInfoFirstText":"Tair KVCache 产品介绍","productPromotionInfoFirstLink":"https://help.aliyun.com/zh/redis/product-overview/tair-kvcache?spm=5176.30063692.J_zhz1C6uKKPBvN1fur6xih.1.b87b5ac3Iu5Wen#ef4997358dmto","productPromotionInfoSecondText":"","productPromotionInfoSecondLink":""},{"$id":"2","productPromotionGroupingTitle":"产品动态","productPromotionInfoFirstText":"","productPromotionInfoFirstLink":"","productPromotionInfoSecondText":"Tair KVCache 推理缓存解决方案","productPromotionInfoSecondLink":"https://developer.aliyun.com/article/1658082"},{"$id":"3","productPromotionGroupingTitle":"产品推荐","productPromotionInfoFirstText":"云数据库 Tair(兼容 Redis®*)","productPromotionInfoFirstLink":"https://www.aliyun.com/product/tair","productPromotionInfoSecondText":"","productPromotionInfoSecondLink":""}],"isOfficialLogo":false},"activityCardInfo":{"activityTitle":"","activityDescription":"","cardContentBackgroundMode":"LightMode","activityContentBackgroundImageLink":"","activityCardBottomInfoSelect":"activityPromotionInfoBlock"}}