文章 2024-10-12 来自:开发者社区

LLM-03 大模型 15分钟 FineTuning 微调 GPT2 模型 finetuning GPT微调实战 仅需6GB显存 单卡微调 数据 10MB数据集微调

参考资料 GPT2 FineTuning OpenAI-GPT2 Kaggle short-jokes 数据集 Why will you need fine-tuning an LLM? LLMs are generally trained on public data with no specific focus. Fine-tuning is a cr...

LLM-03 大模型 15分钟 FineTuning 微调 GPT2 模型 finetuning GPT微调实战 仅需6GB显存 单卡微调 数据 10MB数据集微调
文章 2024-09-06 来自:开发者社区

小钢炮进化,MiniCPM 3.0 开源!4B参数超GPT3.5性能,无限长文本,超强RAG三件套!模型推理、微调实战来啦!

旗舰端侧模型面壁「小钢炮」系列进化为全新 MiniCPM 3.0 基座模型,再次以小博大,以 4B 参数,带来超越 GPT-3.5 的性能。并且,量化后仅 2GB 内存,端侧友好。 小编敲黑板,本次发布重点: 无限长文本,榜单性能强,超长文本也不崩; 性能比肩 GPT-4o 的端侧强大 Function Calling; 超强 RAG 三件套,中文...

小钢炮进化,MiniCPM 3.0 开源!4B参数超GPT3.5性能,无限长文本,超强RAG三件套!模型推理、微调实战来啦!
文章 2024-07-14 来自:开发者社区

从头构建和训练 GPT-2 |实战

引言 该项目将引导您完成构建简单 GPT-2 模型的所有步骤,并使用 Taylor Swift 和 Ed Sheeran 的一堆歌曲进行训练。本文的数据集和源代码将在 Github 上提供。 构建 GPT-2 架构 我们将逐步推进这个项目,不断优化一个基础的模型框架,并在其基础上增加新的层次,这些层次都是基于 GPT-2 的原始设计。 我们将按照以下步骤进行: 制作一个定制的分词工...

从头构建和训练 GPT-2 |实战
文章 2024-07-03 来自:开发者社区

调教NewspaceGPT之GPT4o实战

需求一:我需要一个创意logo 我的问题 我觉得我的描述对一个设计人员来说时精准的,但是不具体的。 需求描述:我需要一个logo。 表现司法公正和司法数字化,人工智能化 。 Newspace给我的答复 ...

调教NewspaceGPT之GPT4o实战

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。