文章 2025-10-21 来自:开发者社区

使用TensorRT LLM构建和运行Qwen模型

本文档展示了如何在单GPU和单节点多GPU上使用TensorRT LLM构建和运行Qwen[1]模型。 本文对应的代码位置位于:https://github.com/NVIDIA/TensorRT-LLM/tree/main/examples/models/core/qwen 概述 TensorRT LLM Qwen的实现可以在models/qwen[...

文章 2025-02-07 来自:开发者社区

MNN-LLM App:在手机上离线运行大模型,阿里巴巴开源基于 MNN-LLM 框架开发的手机 AI 助手应用

❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日分享大模型与 AI 领域的最新开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术! 微信公众号|搜一搜:蚝油菜花 大家好,我是蚝油菜花,今天跟大家分享一下 MNN-LLM App 这个基于 MNN-LLM 框架开发的手机 AI 助手应用。在此之前,如果你想了解什么是 MNN,可以阅读《MNN:阿里开源...

MNN-LLM App:在手机上离线运行大模型,阿里巴巴开源基于 MNN-LLM 框架开发的手机 AI 助手应用
文章 2024-10-12 来自:开发者社区

LLM-02 大模型 本地部署运行 ChatGLM3-6B(13GB) 双卡2070Super8GB 环境配置 单机多卡 基于LLM-01章节 继续乘风破浪 为大模型微调做准备

官方介绍 ChatGLM3-6B 是 ChatGLM 系列最新一代的开源模型,在保留了前两代模型对话流畅、部署门槛低等众多优秀特性的基础上,ChatGLM3-6B 引入了如下特性: 更强大的基础模型: ChatGLM3-6B 的基础模型 ChatGLM3-6B-Base 采用了更多样的训练数据、更充分的训练步数和更合理的训练策略。在语义、数学、推理、代码、知识等不同角度...

LLM-02 大模型 本地部署运行 ChatGLM3-6B(13GB) 双卡2070Super8GB 环境配置 单机多卡 基于LLM-01章节 继续乘风破浪 为大模型微调做准备
文章 2024-10-12 来自:开发者社区

LLM-01 大模型 本地部署运行 ChatGLM2-6B-INT4(6GB) 简单上手 环境配置 单机单卡多卡 2070Super8GBx2 打怪升级!

写在前面 其他显卡环境也可以!但是最少要有8GB的显存,不然很容易爆。 如果有多显卡的话,单机多卡也是很好的方案!!! 背景介绍 目前借到一台算法组的服务器,我们可以查看一下目前显卡的情况 1 (后续已经对CUDA等进行了升级,可看我的其他文章,有升级的详细过程) ...

LLM-01 大模型 本地部署运行 ChatGLM2-6B-INT4(6GB) 简单上手 环境配置 单机单卡多卡 2070Super8GBx2 打怪升级!
文章 2024-08-11 来自:开发者社区

LLM对齐数据全自动合成!UW华人博士生提出Magpie方法,Macbook Air即可运行

在人工智能领域,大型语言模型(LLM)的对齐问题一直是研究的热点。这些模型通过遵循指令来执行各种任务,但如何使它们的行为更符合人类的期望和价值观,是一个复杂且具有挑战性的问题。最近,来自华盛顿大学的研究人员提出了一种名为Magpie的全新方法,旨在通过自动化的方式生成高质量的指令数据,...

文章 2024-04-28 来自:开发者社区

【LLM】能够运行在移动端的轻量级大语言模型Gemma实践

[toc] 轻量级模型是 AI 模型,与传统模型相比,设计得更小、更高效。轻量模型表现为: 更快的处理速度,因为它们需要更少的计算能力来在笔记本电脑甚至智能手机等资源较少的设备上运行和操作。减少内存使用量,因为它们占用的内存空间更少。降低运行模型所需的计算成本。 这种模型是通过使用更少的参数、创建优化的架构和量化࿰...

文章 2024-03-20 来自:开发者社区

Ollama--本地大语言模型LLM运行专家

1、问题提出 使用chatgpt之类的闭源大语言模型时,我们与ai沟通的数据会被其搜集用以训练改善模型。 我们的数据很容易被泄露;数据隐私和数据安全问题如何得到保障? 2、解决方案 为了解决上述问题,我们可以考虑在本地部署开源模型,避免数据泄露。 3、Ollama介绍 Ollama是一个强大的运行AI模型的工具; ...

Ollama--本地大语言模型LLM运行专家
文章 2024-02-02 来自:开发者社区

llamafile:单个文件分发和运行LLM

llamafile项目简介很多初学者学习大语言模型的时候,都会被模型文件中一大堆复杂的python文件或者cuda配置劝退,为了方便更多的零基础的初学者体验大语言模型,llamafile 提出了单文件运行大模型的方案。llamafile项目的目标是让开发人员和终端用户更容易访问开源大型语言模型。为此,llamafile项目将llama.cpp与Cosmopolitan Libc结合到一个框架中,....

llamafile:单个文件分发和运行LLM
问答 2024-01-31 来自:开发者社区

ModelScope显卡上运行的llm有啥改善的方法吗?

ModelScope显卡上运行的llm有啥改善的方法吗?

文章 2023-12-17 来自:开发者社区

使用LM Studio在本地运行LLM完整教程

在开源类别中出于以下的原因,你可能会考虑过在本地计算机上本地运行LLM : 脱机:不需要互联网连接。 模型访问:在本地运行模型,可以尝试开源模型(Llama 2、Vicuna、Mistral、OpenOrca等等)。 隐私:当在本地运行模型时,没有信息被传输到云。尽管在使用GPT-4、Bard和claude 2等基于云的模型时,隐私问题可能被夸大了,但在本地运行模型可以避免任何问题。 ...

使用LM Studio在本地运行LLM完整教程

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

{"cardStyle":"productCardStyle","productCode":"kvstore","productCardInfo":{"productTitle":"Tair KVCache","productDescription":"阿里云数据库 Tair KVCache 为 LLM 推理提供分布式动态分级缓存服务,通过软硬协同设计实现智能路由和缓存资源的最优管理,优化 GPU 服务器资源利用率的同时提升 LLM 推理的速度和吞吐性能,实现降本增效。","productContentLink":"https://www.aliyun.com/product/kvcache","isDisplayProductIcon":true,"productButton1":{"productButtonText":"了解详情","productButtonLink":"https://www.aliyun.com/product/kvcache"},"productButton2":{"productButtonText":"立即咨询","productButtonLink":"https://page.aliyun.com/form/act176452088/index.htm?spm=5176.30063692.J__Z58Z6CX7MY__Ll8p1ZOR.1.66a55ac316TezL"},"productButton3":{"productButtonText":"","productButtonLink":""},"productPromotionInfoBlock":[{"$id":"0","productPromotionGroupingTitle":"最新活动","productPromotionInfoFirstText":"","productPromotionInfoFirstLink":"","productPromotionInfoSecondText":"邀请试用","productPromotionInfoSecondLink":"https://page.aliyun.com/form/act176452088/index.htm?spm=5176.30063692.J__Z58Z6CX7MY__Ll8p1ZOR.3.66a55ac316TezL"},{"$id":"1","productPromotionGroupingTitle":"快速入门","productPromotionInfoFirstText":"Tair KVCache 产品介绍","productPromotionInfoFirstLink":"https://help.aliyun.com/zh/redis/product-overview/tair-kvcache?spm=5176.30063692.J_zhz1C6uKKPBvN1fur6xih.1.b87b5ac3Iu5Wen#ef4997358dmto","productPromotionInfoSecondText":"","productPromotionInfoSecondLink":""},{"$id":"2","productPromotionGroupingTitle":"产品动态","productPromotionInfoFirstText":"","productPromotionInfoFirstLink":"","productPromotionInfoSecondText":"Tair KVCache 推理缓存解决方案","productPromotionInfoSecondLink":"https://developer.aliyun.com/article/1658082"},{"$id":"3","productPromotionGroupingTitle":"产品推荐","productPromotionInfoFirstText":"云数据库 Tair(兼容 Redis®*)","productPromotionInfoFirstLink":"https://www.aliyun.com/product/tair","productPromotionInfoSecondText":"","productPromotionInfoSecondLink":""}],"isOfficialLogo":false},"activityCardInfo":{"activityTitle":"","activityDescription":"","cardContentBackgroundMode":"LightMode","activityContentBackgroundImageLink":"","activityCardBottomInfoSelect":"activityPromotionInfoBlock"}}