文章 2023-08-09 来自:开发者社区

大模型掌握16000+真实世界API了,清华等机构ToolLLM的工具使用能力不输ChatGPT

编辑:陈萍、梓文本文提出了一个新的框架 ToolLLM,其增强了大型语言模型对 API 的使用。在指令调优数据集 ToolBench 上对 LLaMA 进行微调,得到的 ToolLLaMA 与 ChatGPT 性能相当。相信大家都已经见识到了,开源大型语言模型(LLMs)及其变体(例如 LLaMA 和 Vicuna)在各种任务上取得了显著的进展。然而,尽管 LLM 很强大,但它们在执行更高级任务....

大模型掌握16000+真实世界API了,清华等机构ToolLLM的工具使用能力不输ChatGPT
文章 2023-05-18 来自:开发者社区

热点解读:大模型的突现能力和ChatGPT引爆的范式转变(2)

上下文学习是监督学习吗?坦白讲,我不确定。相似之处在于,上下文学习也需要像训练数据一样的示例不同之处在于,上下文学习的泛化行为并不同于监督学习,这使得之前的泛化理论(例如 Rademancher Complexity 或 Neural Tangent Kernel)均不适用。上下文学习真的比监督学习效果要好吗?答案还未知。大多数提示词和精调的对比都只比了 提示词 + 大模型 vs 精调 + 小模....

热点解读:大模型的突现能力和ChatGPT引爆的范式转变(2)
文章 2023-05-18 来自:开发者社区

热点解读:大模型的突现能力和ChatGPT引爆的范式转变(1)

热点解读:大模型的突现能力和ChatGPT引爆的范式转变机器之心 2022-12-29 15:49 发表于辽宁机器之心转载作者:符尧、Tushar Khot、彭昊、李如寐等符尧(yao.fu@ed.ac.uk),爱丁堡大学 (University of Edinburgh) 博士生,本科毕业于北京大学。他与 Tushar Khot、彭昊在艾伦人工智能研究院 (Allen Institute fo....

热点解读:大模型的突现能力和ChatGPT引爆的范式转变(1)

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。