文章 2025-01-20 来自:开发者社区

NeurIPS 2024:自我纠错如何使OpenAI o1推理能力大大加强?北大、MIT团队给出理论解释

在人工智能领域,特别是大型语言模型(LLMs)的研究中,自我纠错能力正逐渐成为一个备受关注的话题。这种能力指的是模型在没有人类干预的情况下,能够通过自我检查和纠正来提高其性能。近期,来自北京大学和麻省理工学院(MIT)的团队在NeurIPS 2024上发表了一项研究,为我...

文章 2023-06-29 来自:开发者社区

识别「ChatGPT造假」,效果超越OpenAI:北大、华为的AI生成检测器来了

AI 造假的成功率很高,前几天「10 分钟骗 430万」还上了热搜。在最热门的大语言模型上,研究人员最近探索了一种识别方法。随着生成式大模型的不断进步,它们生成的语料正逐步逼近人类。虽然大模型正在解放无数文书的双手,它以假乱真的强劲能力也为一些不法分子所利用,造成了一系列社会问题:  来自北大、华为的研究者们提出了一种识别各式 AI 生成语料的可靠文本检测器。根据长短文本的不....

识别「ChatGPT造假」,效果超越OpenAI:北大、华为的AI生成检测器来了

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。