为RTP-LLM提供Arm CPU后端,助力Arm
为RTP-LLM提供Arm CPU后端,助力Arm RTP LLM 是一个大语言模型推理和加速的引擎,主要是用 C++ 和 Python 编写的,它在阿里巴巴的电商平台得到了生产环境的部署和应用。在性能上,最原始的后端是基于 GPU 扩大的高性能内核,可以达到一个业界领先...

昂贵LLM的救星?Nature新研究提出新型忆阻器,比Haswell CPU高效460倍
在人工智能(AI)领域,硬件的能源消耗一直是一个备受关注的问题。然而,最近发表在《自然》杂志上的一项研究,为我们带来了一种可能的解决方案——线性对称自选14位动能分子忆阻器。 忆阻器,作为一种新型的非易失性存储器件,因其在模拟计算和神经形态计算中的潜在应用而备受关注。然而,现有的忆阻器...
mnn-llm: 大语言模型端侧CPU推理优化
在大语言模型(LLM)端侧部署上,基于 MNN 实现的 mnn-llm 项目已经展现出业界领先的性能,特别是在 ARM 架构的 CPU 上。目前利用 mnn-llm 的推理能力,qwen-1.8b在mnn-llm的驱动下能够在移动端达到端侧实时会话的能力,能够在较低内存(<2G)的情况下,做到快速响应。 ...

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。