微信扫码
与创始人交个朋友
我要投稿
本文研究的核心问题是: 如何在大型语言模型(LLMs)中检测幻觉,特别是检测"胡说八道"型的幻觉。
假设在医疗领域使用LLM回答问题"Sotorasib的靶点是什么?"。LLM可能有时会回答KRASG12C(正确),有时会回答KRASG12D(错误),尽管指令相同。这种不一致和错误的回答就是一种幻觉,需要被检测出来以确保LLM的可靠性。
本文研究问题的特点和现有方法面临的挑战主要体现在以下几个方面:
针对这些挑战,本文提出了一种基于概率统计的"语义熵"方法:
该方法的核心思想是通过计算LLM生成内容的"语义层面"的熵来检测幻觉。具体来说,它首先生成多个可能的答案,然后使用双向蕴含关系将这些答案聚类成具有相同含义的组。最后,计算这些语义组的熵,而不是直接计算单词序列的熵。这种方法巧妙地解决了同一个意思可以用多种方式表达的问题,从而更准确地反映了LLM在语义层面的不确定性。高语义熵表示LLM在生成答案时存在高度不确定性,这通常意味着可能出现幻觉。这种方法不需要特定领域的先验知识,可以在不同的数据集和任务中通用,并且能够较好地泛化到新的、未见过的任务中。
语义熵是一种新的不确定性度量方法,专门用于检测大型语言模型(LLMs)中的幻觉。传统的熵计算方法主要关注词序列的概率分布,而语义熵则聚焦于答案含义的分布。这种方法的核心思想是:即使模型生成的答案在词序列层面有所不同,只要它们表达相同的含义,就应该被视为模型对答案含义是确定的。
举个例子,假设我们问模型"埃菲尔铁塔在哪里?"模型可能会生成以下几个答案:
传统的熵计算方法会将这些答案视为完全不同的序列,从而得出一个较高的熵值,误认为模型对答案不确定。然而,从语义的角度来看,这些答案实际上表达了相同的含义。语义熵方法正是捕捉到了这一点,它会将这些答案聚类为同一个语义类,从而得出一个较低的熵值,更准确地反映了模型对答案含义的确定性。
这种方法的优势在于,它能够区分模型在表达方式上的变化和在实际含义上的不确定性。这就好比我们在日常交流中,可能会用不同的话来表达同一个意思,但我们的听者通常能够理解我们表达的核心含义是一致的。
语义熵的计算涉及以下几个关键步骤:
其中,代表第i个语义类,是给定输入x时生成属于类的答案的概率。
具体来说,假设我们对"埃菲尔铁塔在哪里?"这个问题生成了10个答案,其中8个被聚类为"巴黎",2个被聚类为"罗马"。那么我们会得到:
语义熵就是:
这个相对较低的熵值表明模型对答案有一定的确定性,但仍存在一些不确定性。
在某些情况下,我们可能无法获取模型生成每个词的精确概率。为了应对这种情况,论文提出了一种离散化的语义熵变体。这种方法的核心思想是,我们可以直接用生成的样本数量来近似估计概率分布。
具体来说:
举个例子,还是以"埃菲尔铁塔在哪里?"这个问题为例。假设我们生成了10个样本,其中:
那么我们会估计:
离散化的语义熵就是:
这种方法虽然是一种近似,但在实践中效果也很好,特别是当我们无法获取模型内部概率时,它提供了一种可行的替代方案。
语义熵方法不仅适用于短答案,还可以扩展到段落级别的长文本生成任务中。这个过程稍微复杂一些,但基本思路是相似的。具体步骤如下:
举个例子,假设我们有一段关于爱因斯坦的传记文本,其中包含这样一个事实陈述:"爱因斯坦于1921年获得诺贝尔物理学奖。"
我们可能会为这个事实生成以下问题:
然后,我们让模型回答这些问题,并计算每个问题答案集的语义熵。最后,我们取这些熵的平均值作为原始事实陈述的语义熵。
这种方法的优势在于,它允许我们评估长文本中每个事实陈述的可靠性。如果某个事实的语义熵特别高,那么它可能是模型的幻觉或不确定的推测。这为我们提供了一种细粒度的方法来检测和定位长文本生成中的潜在问题。
通过这种方式,语义熵方法不仅可以用于评估简单问答任务中的答案质量,还可以用于分析复杂的长文本生成任务,为提高大型语言模型的可靠性和准确性提供了强有力的工具。
本论文提出了一种名为"语义熵"的新方法来检测大型语言模型(LLMs)中的混淆。实验主要在两个场景中进行:句子长度的问答和数学任务,以及段落长度的传记生成。实验旨在评估语义熵方法在检测LLM输出中的混淆方面的有效性,并与现有的基准方法进行比较。
目的:评估语义熵方法在句子长度的问答和数学任务中检测混淆的能力
涉及图表:图2
实验细节概述:在5个数据集上,使用6个不同的模型进行实验,比较语义熵与基准方法的性能
结果:
目的:评估语义熵方法在段落长度的传记生成任务中检测混淆的能力
涉及图表:图3
实验细节概述:使用GPT-4生成21个人物的传记,从中提取150个事实声明,人工标注正确性,然后应用语义熵和基准方法进行混淆检测
结果:
目的:评估不同蕴含估计器对语义熵性能的影响
涉及图表:补充材料中
实验细节概述:比较了使用GPT-3.5和DeBERTa-large-MNLI作为蕴含估计器的效果
结果:
目的:分析语义熵方法在不同规模的模型和不同类型的数据集上的效果
涉及图表:图2
实验细节概述:在不同参数规模的模型(从7B到70B)和不同类型的数据集上测试语义熵方法
结果:
目的:展示语义熵相比朴素熵在处理语义等价但表达不同的句子时的优势
涉及图表:表1
实验细节概述:通过具体例子展示语义熵和朴素熵在不同情况下的表现
结果:
本论文针对大语言模型(LLM)中的"幻觉"问题,提出了一种基于语义熵(semantic entropy)的检测方法。通过对模型多次生成的答案进行语义聚类,计算语义层面的熵值来识别可能存在的幻觉。实验结果表明,该方法在多个问答数据集和生成任务中都能有效检测幻觉,优于现有基线方法,并能提高模型的整体回答准确率。
疑惑和想法:
可借鉴的方法点:
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-11-24
RAGChecker:显著超越RAGAS,一个精细化评估和诊断 RAG 系统的创新框架
2024-11-23
FastRAG半结构化RAG实现思路及OpenAI O1-long COT蒸馏路线思考
2024-11-23
检索增强生成(RAG):解密AI如何融合记忆与搜索
2024-11-23
如何提高RAG系统准确率?12大常见痛点及巧妙解!
2024-11-23
RAG 2.0性能提升:优化索引与召回机制的策略与实践
2024-11-22
RAG技术在实际应用中的挑战与解决方案
2024-11-22
从普通RAG到RAPTOR,10个最新的RAG框架
2024-11-22
如何使用 RAG 提高 LLM 成绩
2024-07-18
2024-05-05
2024-07-09
2024-05-19
2024-07-09
2024-06-20
2024-07-07
2024-07-07
2024-07-08
2024-07-09
2024-11-06
2024-11-06
2024-11-05
2024-11-04
2024-10-27
2024-10-25
2024-10-21
2024-10-21