清华UCSD提出全新微调方法,8B小模型媲美GPT-4o!科学问题正确率提高28%
清华大学与加州大学圣地亚哥分校(UCSD)的研究人员最近提出了一种创新的微调方法,该方法通过智能工具使用适应,显著提高了大型语言模型(LLM)在解决科学问题时的性能。这种方法不仅在解决复杂科学问题上取得了显著进展,还保持了模型在解决简单问题上的基本推理能力。 传统的方法中,LLM在解决...
MiniCPM-o 2.6:面壁智能开源多模态大模型,仅8B参数量就能媲美GPT-4o,支持实时交互,在ipad等终端设备上运行
❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日分享大模型与 AI 领域的最新开源项目和应用,提供运行实例和实用教程,帮助你快速上手AI技术,欢迎关注我哦! 微信公众号|搜一搜:蚝油菜花 快速阅读 性能表现:MiniCPM-o 2.6 在视觉、语音和多模态直播领域表现出色,性能媲美GPT-4o。 功能特点:支持实时双语语音识别、情感/语速/风格控制、端...
InternVL 2.5,首个MMMU超过70%的开源模型,性能媲美GPT-4o
01引言 近期Internvl2.5发布,性能与GPT-4o和Claude-3.5-sonnet等领先的商业模型相媲美,成为首个在MMMU上超过70%的开源模型,通过链式思考(CoT)推理实现了3.7个百分点的提升,展示了强大的测试时间可扩展性潜力。InternVL 2.5是基于InternVL 2.0发展而来,通过增强训练和测试策略以及提高数据质量来进一步提升性能。该模型在多个方面进行...
参数量不到10亿的OctopusV3,如何媲美GPT-4V和GPT-4?
在人工智能领域,多模态AI代理的发展正迅速改变我们与技术的互动方式。这些AI代理能够处理和学习包括自然语言、视觉和音频输入在内的各种类型的数据,以指导其行动。尽管在整合视觉数据的大型语言模型方面取得了进展,如GPT-4V,但将基于图像的数据有效地转化为AI代理的可操作结果仍然是一个挑战。斯坦福大学的研究人员在一篇技术报告中介绍了Octopu...
没有RLHF,一样媲美GPT-4、Bard,Meta发布650亿参数语言模型LIMA
不需要 RLHF,LIMA 就能和 GPT-4、Bard、DaVinci003 相媲美,甚至更好。作为当前 AI 领域的顶流,ChatGPT、GPT-4 等大模型在文本理解、生成、推理等方面展现出强大的能力,这离不开其背后的生成领域训练新范式 ——RLHF (Reinforcement Learning from Human Feedback) ,即以强化学习的方式依据人类反馈优化语言模型。使用....
斯坦福70亿参数开源模型媲美GPT-3.5,100美元即可复现
机器之心编辑部学界或许没有业界的算力优势,但可以使用 self-instruct 方法直面大规模语言模型的挑战。随着大规模语言模型的日渐强大,人们对 AI 模型提出了伦理道德方面的更高要求。业界在模型规模扩展方面具有算力资源优势,但要想让模型更规范、可靠,需要学术界的努力。近日,斯坦福基于 Meta 的 LLaMA 7B 模型微调出一个新模型 Alpaca。该研究让 OpenAI 的 text-....
发布日志记录、公开所有代码,Meta开放1750亿参数大模型,媲美GPT-3
OPT-175B,使人工智能更加开放和可复制。 Meta AI 在昨天公布的一篇论文可谓是炸开了锅,论文网站 paperswithcode 热搜榜第一,众多 AI 大佬推荐:LSTM 提出者和奠基者,奥地利人工智能高级研究所(IARAI)创始人 Sepp Hochreiter 教授就在推特上进行了宣传:社交及新闻网站 reddit 讨论量也爆表:有研究者表示这是将大型 LM 研究引入学术...
参数量仅为4%,性能媲美GPT-3:开发者图解DeepMind的RETRO
构建越来越大的模型并不是提高性能的唯一方法。从 BERT 到 GPT-2 再到 GPT-3,大模型的规模是一路看涨,表现也越来越惊艳。增大模型规模已经被证明是一条可行的改进路径,而且 DeepMind 前段时间的一些研究表明:这条路还没有走到头,继续增大模型依然有着可观的收益。但与此同时,我们也知道,增大模型可能并不是提升性能的唯一路径,前段时间的几个研究也证明了这一点。其中比较有代表性的研究要....
本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。