文章 2024-09-04 来自:开发者社区

MinerU-大语言语料处理神器,CPU/GPU均可跑,开源免费“敲”好用

引言 在7月4日举行的WAIC 2024科学前沿主论坛上,书生·浦语2.5正式发布,面向大模型研发与应用的全链条工具体系同时迎来升级。在数据处理环节,上海人工智能实验室(上海AI实验室)大模型数据基座OpenDataLab团队开源了全新的智能数据提取工具——MinerU。 在这个信息爆炸的时代,AI研究者常常面临着从海量文档中提取高质量数据的挑战。无论是学术文献、行业报...

MinerU-大语言语料处理神器,CPU/GPU均可跑,开源免费“敲”好用
问答 2024-07-31 来自:开发者社区

modelscope-funasr的gpu版本的cpp源码还没开源出来吗?

modelscope-funasr的gpu版本的cpp源码还没开源出来吗?github上拉下来的最新代码,run_server.sh传入的还是onnx的asr模型,容器里面是运行的是pytorch的asr模型

问答 2024-03-27 来自:开发者社区

modelscope-funasr的libtorch fp16 gpu版本现在有开源嘛?

modelscope-funasr的libtorch fp16 gpu版本现在有开源嘛,有没有torch gpu rtf相关的测试数据呢?

问答 2023-12-07 来自:开发者社区

函数计算FC使用GPU实例, 跑网易开源的 emoti-voice 容器, 提示这个,啥原因导致的?

$stringUtil.substring( $!{XssContent1.description},200)...

文章 2023-06-30 来自:开发者社区

小羊驼背后的英雄,伯克利开源LLM推理与服务库:GPU减半、吞吐数十倍猛增

大模型时代,各种优化方案被提出,这次吞吐量、内存占用大等问题被拿下了。随着大语言模型(LLM)的不断发展,这些模型在很大程度上改变了人类使用 AI 的方式。然而,实际上为这些模型提供服务仍然存在挑战,即使在昂贵的硬件上也可能慢得惊人。现在这种限制正在被打破。最近,来自加州大学伯克利分校...

小羊驼背后的英雄,伯克利开源LLM推理与服务库:GPU减半、吞吐数十倍猛增
文章 2023-06-29 来自:开发者社区

Sam Altman谈OpenAI:面临GPU短缺恐慌,GPT-3或将开源

眼下 OpenAI 面临的最大问题是「缺芯」。从 ChatGPT 问世以来,大模型和 AI 技术就引起全世界的广泛关注。一方面,人们惊叹于大模型的涌现能力,另一方面又对人工智能的可控性及未来发展产生担忧。今年已有包括图灵奖得主 Geoffrey Hinton、Yoshua Bengio 在内的 AI 领域专家等众多业内人士多次联合警告 AI 大模型将引发...

Sam Altman谈OpenAI:面临GPU短缺恐慌,GPT-3或将开源
文章 2023-06-15 来自:开发者社区

阿里云PAIx达摩院GraphScope开源基于PyTorch的GPU加速分布式GNN框架

作者:艾宝乐 导读 近期阿里云机器学习平台 PAI 团队和达摩院 GraphScope 团队联合推出了面向 PyTorch 的 GPU 加速分布式 GNN 框架 GraphLearn-for-PyTorch(GLT) 。GLT 利用 GPU 的强大并行计算性能来加速图采样,并利用 UVA 来减少顶点和边特征的转换和拷贝。对于大规模图,GLT 使用了生产者-消费者的架构,通过异步并发的分布式采...

阿里云PAIx达摩院GraphScope开源基于PyTorch的GPU加速分布式GNN框架
文章 2023-05-22 来自:开发者社区

这是Meta版ChatGPT雏形?开源、一块GPU就能跑,1/10参数量打败GPT-3(2)

实验结果常识性推理在表 3 中,研究者与现有的各种规模的模型进行比较,并报告了相应论文中的数字。首先,LLaMA-65B 在所有报告的基准上都超过了 Chinchilla-70B,除了 BoolQ。同样,除了在 BoolQ 和 WinoGrande 上,这个模型在任何方面都超过了 PaLM540B。LLaMA-1...

这是Meta版ChatGPT雏形?开源、一块GPU就能跑,1/10参数量打败GPT-3(2)
文章 2023-05-22 来自:开发者社区

这是Meta版ChatGPT雏形?开源、一块GPU就能跑,1/10参数量打败GPT-3(1)

这是Meta版ChatGPT雏形?开源、一块GPU就能跑,1/10参数量打败GPT-3机器之心 2023-02-25 13:17 发表于北京机器之心报道编辑:张倩、蛋酱具有 130 亿参数的 LLaMA 模型「在大多数基准上」可以胜过 GPT-3( 参数量达1750 亿),而且可以在单块V100 GPU上运行。千...

这是Meta版ChatGPT雏形?开源、一块GPU就能跑,1/10参数量打败GPT-3(1)
文章 2023-05-22 来自:开发者社区

这是Meta版ChatGPT雏形?开源、一块GPU就能跑,1/10参数量打败GPT-3

具有 130 亿参数的 LLaMA 模型「在大多数基准上」可以胜过 GPT-3( 参数量达1750 亿),而且可以在单块V100 GPU上运行。千亿、万亿参数的超大模型需要有人研究,十亿、百亿参数的大模型同样需要。刚刚,Meta 首席 AI 科学家 Yann LeCun 宣布,他们「开源」了一个新的大模型系列 —...

这是Meta版ChatGPT雏形?开源、一块GPU就能跑,1/10参数量打败GPT-3

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

云服务器ECS

做技术先进、性能优异、稳如磐石的弹性计算!

+关注