文章 2024-10-12 来自:开发者社区

LLM-03 大模型 15分钟 FineTuning 微调 GPT2 模型 finetuning GPT微调实战 仅需6GB显存 单卡微调 数据 10MB数据集微调

参考资料 GPT2 FineTuning OpenAI-GPT2 Kaggle short-jokes 数据集 Why will you need fine-tuning an LLM? LLMs are generally trained on public data with no specific focus. Fine-tuning is a cr...

LLM-03 大模型 15分钟 FineTuning 微调 GPT2 模型 finetuning GPT微调实战 仅需6GB显存 单卡微调 数据 10MB数据集微调
阿里云文档 2024-09-20

如何训练GPT-2模型并生成文本

本文介绍如何使用GPU云服务器,使用Megatron-DeepSpeed框架训练GPT-2模型并生成文本。

文章 2024-08-03 来自:开发者社区

公理训练让LLM学会因果推理:6700万参数模型比肩万亿参数级GPT-4

最近,一篇关于语言模型(LLM)的论文引起了广泛关注。该论文提出了一种名为"公理训练"的新方法,通过该方法,一个只有6700万参数的LLM能够学会因果推理,并在多个任务上表现出与万亿参数级的GPT-4相媲美的性能。 论文中,研究人员首先指出了因果推理在现实世界中的重要性。他们指出&#...

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。