阿里云文档 2024-09-20

如何训练GPT-2模型并生成文本

本文介绍如何使用GPU云服务器,使用Megatron-Deepspeed框架训练GPT-2模型并生成文本。

文章 2024-07-13 来自:开发者社区

`transformers`库是Hugging Face提供的一个开源库,它包含了大量的预训练模型和方便的API,用于自然语言处理(NLP)任务。在文本生成任务中,`transformers`库提供了许多预训练的生成模型,如GPT系列、T5、BART等。这些模型可以通过`pipeline()`函数方便地加载和使用,而`generate()`函数则是用于生成文本的核心函数。

一、引言 transformers库是Hugging Face提供的一个开源库,它包含了大量的预训练模型和方便的API,用于自然语言处理(NLP)任务。在文本生成任务中,transformers库提供了许多预训练的生成模型,如GPT系列、T5、BART等。这些模型可以通过pipeline()函数方便地加载和使用&...

文章 2023-05-31 来自:开发者社区

开源中文医疗大模型华佗GPT来了,真人医生盲测效果优于ChatGPT

香港中文大学(深圳)和深圳市大数据研究院所在的王本友教授团队训练并开源了一个新的医疗大模型 ——HuatuoGPT(华佗GPT),以使语言模型具备像医生一样的诊断能力和提供有用信息的能力。基于医生回复和 ChatGPT 回复,让语言模型成为医生提供丰富且准确的问诊。在医疗领域,大规模语言模型...

开源中文医疗大模型华佗GPT来了,真人医生盲测效果优于ChatGPT
文章 2023-05-24 来自:开发者社区

斯坦福70亿参数开源模型媲美GPT-3.5,100美元即可复现

机器之心编辑部学界或许没有业界的算力优势,但可以使用 self-instruct 方法直面大规模语言模型的挑战。随着大规模语言模型的日渐强大,人们对 AI 模型提出了伦理道德方面的更高要求。业界在模型规模扩展方面具有算力资源优势,但要想让模型更规范、可靠,需要学术界的努力。近日,斯坦福基于 Meta 的 LLaMA 7B 模型...

斯坦福70亿参数开源模型媲美GPT-3.5,100美元即可复现
文章 2022-02-14 来自:开发者社区

莆田版GPT-3开源:同等复现预训练模型GPT Neo,可在Colab上完成微调

  新智元报道  来源:Eleuther AI编辑:小匀【新智元导读】 GPT-3开源了?Eleuther AI推出的名为GPT-Neo的开源项目:公开发布的GPT-3同等复现预训练模型(1.3B & 2.7B),可在Colab上完成微调。 ……当然此 GPT-3非彼 GPT-3。 近日,Eleuther...

莆田版GPT-3开源:同等复现预训练模型GPT Neo,可在Colab上完成微调

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。