文章 2025-02-27 来自:开发者社区

D1net阅闻 | 大模型军备竞赛升级:GPT-4.5/Grok 3同日官宣

(来源:企业网D1net) 大模型军备竞赛升级:GPT-4.5/Grok 3同日官宣 OpenAI宣布未来几周发布GPT-4.5(代号Orion),马斯克则将发布号称“地球最聪明AI”的Grok 3,声称其解决方案“强大到令人害怕”。谷歌Gemini 2.0已全面开放,Meta同期推出Pippo模型(单图生成1K多视角视频)。 OpenAI...

文章 2025-02-12 来自:开发者社区

UC伯克利:给大模型测MBTI,Llama更敢说但GPT-4像理工男

在人工智能领域,大型语言模型(LLM)的输出特性一直备受关注。这些模型在生成文本时所展现出的细微而独特的特征,虽然被用户所察觉,但往往难以量化。为了解决这一问题,UC伯克利的研究团队推出了一种名为VibeCheck的系统,旨在自动比较两个LLM模型,并发现它们在输出中的可识别特征&#x...

文章 2025-01-23 来自:开发者社区

Doubao-1.5-pro:字节跳动最新豆包大模型,性能超越GPT-4o和Claude 3.5 Sonnet

❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日分享大模型与 AI 领域的最新开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术,欢迎关注我哦! 微信公众号|搜一搜:蚝油菜花 快速阅读 性能优势:豆包大模型1.5在知识、代码、推理、中文等多个测评基准上表现优于GPT-4o和Claude 3.5 Sonnet。 多模态能力:支持文本、图像、语...

Doubao-1.5-pro:字节跳动最新豆包大模型,性能超越GPT-4o和Claude 3.5 Sonnet
文章 2025-01-16 来自:开发者社区

MiniCPM-o 2.6:面壁智能开源多模态大模型,仅8B参数量就能媲美GPT-4o,支持实时交互,在ipad等终端设备上运行

❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日分享大模型与 AI 领域的最新开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术,欢迎关注我哦! 微信公众号|搜一搜:蚝油菜花 快速阅读 性能表现:MiniCPM-o 2.6 在视觉、语音和多模态直播领域表现出色,性能媲美GPT-4o。 功能特点:支持实时双语语音识别、情感/语速/风格控制、端...

MiniCPM-o 2.6:面壁智能开源多模态大模型,仅8B参数量就能媲美GPT-4o,支持实时交互,在ipad等终端设备上运行
文章 2024-12-17 来自:开发者社区

免费部署本地AI大语言模型聊天系统:Chatbox AI + 马斯克grok2.0大模型(简单5步实现,免费且比GPT4.0更好用)

摘要: 本文将指导您如何部署一个本地AI大语言模型聊天系统,使用Chatbox AI客户端应用和grok-beta大模型,以实现高效、智能的聊天体验。 引言: 由马斯克X-AI发布的Grok 2大模型以其卓越的性能超越了GPT4.0。Grok模型支持超长文本上下文理解,易于使用且免费。 部署步骤: 获取API密钥: ...

免费部署本地AI大语言模型聊天系统:Chatbox AI + 马斯克grok2.0大模型(简单5步实现,免费且比GPT4.0更好用)
文章 2024-10-30 来自:开发者社区

大模型进阶微调篇(三):微调GPT2大模型实战

在之前的两篇文章:基于人类反馈的强化学习RLHF原理、优点介绍 以定制化3B模型为例,各种微调方法对比-选LoRA还是PPO 介绍了一下微调相关的知识 在本文中,我带大家在一般设备上微调GPT2大模型(例如无GPU的ECS或者个人电脑) - qwen2.5-0.5B也可以,但时长需要80个小时左右对于集显太慢了...

文章 2024-10-12 来自:开发者社区

LLM-03 大模型 15分钟 FineTuning 微调 GPT2 模型 finetuning GPT微调实战 仅需6GB显存 单卡微调 数据 10MB数据集微调

参考资料 GPT2 FineTuning OpenAI-GPT2 Kaggle short-jokes 数据集 Why will you need fine-tuning an LLM? LLMs are generally trained on public data with no specific focus. Fine-tuning is a cr...

LLM-03 大模型 15分钟 FineTuning 微调 GPT2 模型 finetuning GPT微调实战 仅需6GB显存 单卡微调 数据 10MB数据集微调
文章 2024-09-06 来自:开发者社区

大模型微调使GPT3成为了可以聊天发布指令的ChatGPT

你好,开始一种新的尝试,准备聊聊“大语言模型入门”。 字少总结版本 聊天大模型在通用大模型的基础上加一层微调就实现人人能用的大模型。使得通用大模型的能力被更多人使用和了解。 大模型微调(Fine-tuning)是指在已经训练好的大模型基础上,进一步在特定任务或数据集上进行训练,以便让模型在特定应用场景中表现得更好。 大模型微调更适合业务场景和性能需求。 什么是大模型 大模型的第...

大模型微调使GPT3成为了可以聊天发布指令的ChatGPT
文章 2024-08-15 来自:开发者社区

真相了!大模型解数学题和人类真不一样:死记硬背、知识欠缺明显,GPT-4o表现最佳

在人工智能领域,大型多模态模型(LMMs)的数学推理能力一直是研究的热点。近期,一项名为WE-MATH的研究基准测试为我们提供了洞察这些模型在解决视觉数学问题时的深层次原理。这项研究由北京邮电大学、腾讯微信团队、华中科技大学和北京理工大学的研究人员共同完成,他们精心设计了一系列评估标准,旨在探索LMMs是否能够实...

文章 2024-08-14 来自:开发者社区

大模型下HPE GPT解决问题之HPE对于大模型时代的变革如何解决

问题一:大模型时代带来了哪些变革?并且HPE是如何应对的? 大模型时代带来了哪些变革?并且HPE是如何应对的? 参考回答: 大模型时代带来了AI产业的全面升级,推动了全球生产力的普遍提升和数字经济的加速扩展。在这个时代,AI自身也进入了工业标准化阶段。HPE通过推出“奇点”攻略——全生命周期的解决方案,旨在帮助企业抓住大模型时代的机遇,通过提供工业标准...

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。