微信扫码
与创始人交个朋友
我要投稿
大家好,我是刘聪NLP。
RAG(检索增强生成)通过检索系统找到用户问题相关的信息片段,利用大模型综合生成一个答案,极大解决了大模型幻觉、信息更新不及时等问题,已经成为了大模型落地的重要手段。
但在检索过程中,往往会检索到与问题极度相似、但又不包含答案或包含干扰答案的片段,这些答案无关片段对大模型生成答案有何影响呢?
今天正好刷到一篇相关文章,带给大家《How Easily do Irrelevant Inputs Skew the Responses of Large Language Models?》
Paper: https://arxiv.org/abs/2404.03302
Github: https://github.com/Di-viner/LLM-Robustness-to-Irrelevant-Information
先放相关结论,后面补充相关细节。
将答案无关片段,分成三类:
数据构造:
相关样例如下图所示,
通过Contriever model计算不同片段相似度得分,相关和部分相关与问题的相似度甚至比真实片段更高,说明数据构造有效。
评价指标:
为了方便评测,采用多项选择题的形式进行LLMs评估,将“正确答案”、“错误答案”以及“不确定”作为选择供LLMs选择。
评估了LLMs在面对三个不同语义相关性级别的答案无关片段时的表现,如下表所示,随着片段的相关性增高,不同模型的效果均有所下降,对于干扰后生成的答案的信心更足。闭源模型的效果远好于开源模型。
PS:开源模型只做了Llama2-7B,感觉应该补充补充~
随着片段个数的不断增加,LLMs分心更严重,如下表所示,随着答案无关片段的数据增加,更愿意选择无关答案。
为了方便评估,选择多项选择的形式来对LLMs进行分析。但其他形式的问法表现如何?如下表所示,自由问答形式的问题受答案无关片段影响最小、其次是是否类型,影响最大的是多项选择式问题。
PS:对于自由式问题由于没有约束,答案较为散乱,不易评估,由采用了GPT3.5进行了答案对齐操作,人工抽检300条,准确率在97%,认为可靠。
忽略式Prompt对结果有微弱的改善,COT、忽略式Prompt+ICL对结果有害,效果变得更差。
一个蛮有趣的实验报告,探索检索片段对RAG系统带来的额外影响。
PS:给公众号添加【星标⭐️】不迷路!您的点赞、在看、关注是我坚持的最大动力!
欢迎多多关注公众号「NLP工作站」,加入交流群,交个朋友吧,一起学习,一起进步!
我们的口号是“生命不止,学习不停”!
往期推荐:
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-05-14
2024-04-26
2024-03-30
2024-04-12
2024-05-10
2024-07-18
2024-05-28
2024-05-22
2024-04-25
2024-04-26
2024-11-22
2024-11-22
2024-11-21
2024-11-20
2024-11-19
2024-11-18
2024-11-18
2024-11-16