文章 2025-01-09 来自:开发者社区

谷歌苹果曝出LLM惊人内幕,自主识别错误却装糊涂!AI幻觉背后藏着更大秘密

在人工智能领域,大型语言模型(LLM)的广泛应用带来了显著的便利,但同时也引发了对其“幻觉”现象的担忧。近期,来自谷歌和苹果的研究人员在一篇论文中揭示了LLMs的惊人内幕:这些模型实际上能够自主识别错误,却在生成答案时表现得似乎并不知道正确答案。这一发现引发了对LLMs内部机制和行为模式的深入探讨。...

文章 2024-08-17 来自:开发者社区

AI大模型企业应用实战-“消灭”LLM幻觉的利器 - RAG介绍

大模型一定程度改变了我们生活工作的思考方式,越来越多的个人和企业在思考如何将大模型应用到更加实际的生产生活。 1 LLM的问题 1.1 幻觉 LLM因为是一个预训练模型,它已有一些知识储备,我们提的问题跟他的知识储备不相符时,会产生一些幻觉问题,看上去正确的回答。 1.2 新鲜度 LLM预训练出来之后,不能感知到我们实时更新的工业数据,还有企业内部的一些私域数据。 1.3 数据安全 ...

AI大模型企业应用实战-“消灭”LLM幻觉的利器 - RAG介绍
文章 2024-07-23 来自:开发者社区

语义熵识破LLM幻觉!牛津大学新研究登Nature

近日,一项由牛津大学研究人员领衔的突破性研究在人工智能领域引起了广泛关注。该研究以“Detecting hallucinations in large language models using semantic entropy”为题,发表在了国际顶级学术期刊《自然》(Nature)上。这项研究提出了一种名为“语义熵”的方法,...

文章 2024-07-12 来自:开发者社区

Lookback Lens:用注意力图检测和减轻llm的幻觉

在总结文章或回答给定段落的问题时,大语言模型可能会产生幻觉,并会根据给定的上下文回答不准确或未经证实的细节,这也被称为情境幻觉。为了解决这个问题,这篇论文的作者提出了一个简单的幻觉检测模型,其输入特征由上下文的注意力权重与新生成的令牌(每个注意头)的比例给出。它被称为回看或基于回看比率的检测器。 该方法计算为给定上下文的注意力权重与新生成的令牌的比值。在每个时间步,计算每个注意头的回看率,并训.....

Lookback Lens:用注意力图检测和减轻llm的幻觉
文章 2024-06-17 来自:开发者社区

To Believe or Not to Believe?DeepMind新研究一眼看穿LLM幻觉

最近,DeepMind的研究人员在大型语言模型(LLMs)的不确定性量化方面取得了一项重要突破。这项研究旨在帮助我们确定一个查询的响应中的不确定性何时会很大。它同时考虑了认知不确定性和偶然不确定性,前者源于对基本事实或语言的缺乏了解,而后者则源于不可减少的随机性,例如多个可能的答案。 该研究的新颖之处在于...

文章 2024-05-29 来自:开发者社区

微调真的能让LLM学到新东西吗:引入新知识可能让模型产生更多的幻觉

大型语言模型(llm)是在巨大的文本语料库上训练的,在那里他们获得了大量的事实知识。这些知识嵌入到它们的参数中,然后可以在需要时使用。这些模型的知识在培训结束时被“具体化”。在预训练结束时,模型实际上停止学习。 对模型进行对齐或进行指令调优,让模型学习如何充分利用这些知识,以及如何更自然地响应用户的问题。但是有时模型知识是不够的,尽管模型可以通过RAG访问外部内容,但通过微调使模型适应新的领域.....

微调真的能让LLM学到新东西吗:引入新知识可能让模型产生更多的幻觉
文章 2024-02-08 来自:开发者社区

大语言模型LLM中的幻觉

LLM是什么? 大型语言模型(LLM)是一种基于自然语言处理和机器学习技术的大型语言处理模型。它能够理解和生成自然语言文本,并能够处理各种语言和文本类型,如对话、问答、文本生成等。 LLM的主要特点是使用了大规模的语料库和复杂的机器学习算法,通过学习大量的文本数据,以理解、生成和分类自然语言文本。它能够处理复杂的语言结构和语义,并且可以处理多种语言和文本类型,包括但不限于小说、新...

大语言模型LLM中的幻觉
文章 2024-01-03 来自:开发者社区

如何避免LLM的“幻觉”(Hallucination)

大语言模型的长而详细的输出看起来很有说服力,但是这些输出很有可能是虚构的。这是否意味着我们不能信任聊天机器人,每次都必须手动检查输出的事实?有一些方法可以让聊天机器人在适当的保护措施下不太可能说假话。 一个最简单的方法就是调整temperature到一个很大的值,例如0.7,然后使用相同的提问多次对话。这样得到的输出应该只会改变句子的结构,输出之间的差异应该只是语义上的,而不是事实上的。 ...

如何避免LLM的“幻觉”(Hallucination)

本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。

产品推荐

{"cardStyle":"productCardStyle","productCode":"aliyun","productCardInfo":{"productTitle":"文档智能&RAG,让你的AI大模型开启“外挂”之旅","productDescription":"本方案介绍了如何实现将文档智能和检索增强生成(RAG)结合起来构建强大的LLM知识库,包括清洗文档内容、文档内容向量化、问答内容召回后通过特定的Prompt,提供给LLM足够的上下文信息,以此来满足对于企业级文档类型知识库的问答处理。","productContentLink":"https://www.aliyun.com/solution/tech-solution/document-mind-rag-for-llm","isDisplayProductIcon":true,"productButton1":{"productButtonText":"方案详情","productButtonLink":"https://www.aliyun.com/solution/tech-solution/document-mind-rag-for-llm"},"productButton2":{"productButtonText":"一键部署","productButtonLink":"https://help.aliyun.com/document_detail/2845368.html"},"productButton3":{"productButtonText":"查看更多技术解决方案","productButtonLink":"https://www.aliyun.com/solution/tech-solution/"},"productPromotionInfoBlock":[{"$id":"0","productPromotionGroupingTitle":"解决方案推荐","productPromotionInfoFirstText":"10分钟在网站上增加一个 AI 助手","productPromotionInfoFirstLink":"https://www.aliyun.com/solution/tech-solution/add-an-ai-assistant-to-your-website-in-10-minutes","productPromotionInfoSecondText":"10 分钟构建 AI 客服并应用到网站、钉钉或微信中","productPromotionInfoSecondLink":"https://www.aliyun.com/solution/tech-solution/build-a-chatbot-for-your-website-or-chat-system"}],"isOfficialLogo":false},"activityCardInfo":{"activityTitle":"","activityDescription":"","cardContentBackgroundMode":"LightMode","activityContentBackgroundImageLink":"","activityCardBottomInfoSelect":"activityPromotionInfoBlock"}}