AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


RAG领域出现技术创新,或将引领AI搜索重大变革?
发布日期:2024-09-11 18:13:21 浏览次数: 1615



引言

最近,PersonaRAG引起我们团队的关注。AI研究者们发布了一篇名为《PersonaRAG: Enhancing Retrieval-Augmented Generation Systems with User-Centric Agents》的论文,其中探讨了名为PersonaRAG的新框架。该框架的目标是通过用户中心化智能体来增强RAG系统,以提高个性化和准确性。这篇文章中,我们将沿着技术发展脉络,随着AI研究者的步伐,一起探寻RAG方案的前景和未来。


什么是RAG


近年来,大模型在自然语言处理领域取得了引人注目的进展。然而,这些模型存在着输出不准确的问题,例如模型幻觉和知识时效性的问题。这使得它们在复杂任务中的表现受到限制。为了解决这些问题,检索增强生成(RAG)模型应运而生。


RAG的思想是将信息检索与大模型相结合的过程。具体来说,RAG流程是根据用户的查询,从海量的文档或者数据中检索出相关的信息片段。然后用大模型生成有用的回答。这个流程能够有效地弥补生成式模型在知识更新和特定领域细节方面的不足,提高回答的准确性和可靠性。


传统的RAG包括以下几个步骤:


首先,我们将知识库中的文本提取出来,形成文本区块(chunk),然后把这些文本区块用文本嵌入(text embedding)模型转换成向量,储存到向量库中。其次,我们将用户的提问(query)进行文本嵌入,然后计算相似度,找到向量库中最匹配的k个文本区块。最后,将这些找到k个文本区块和用户提问,构建成为提示词(prompt),大模型输出结果。


总的来说,RAG借鉴检索系统的准确性,提高达模型准确率,减少幻觉。此外,通过更新知识库的方式,还可以让大模型的知识更有时效性。


RAG和微调的对比


面对大模型的输出不准确的问题,其实还有另外一个思路:微调。这两个方法解题思路不一样,面对的场景也略有差异。RAG主要解决大模型在知识上的不足,也就是让大模型回答原来回答不了的问题。微调主要解决大模型在任务上的缺陷,也就是让大模型具体任务的表现上更优异。除此之外,RAG不太容易出现幻觉,微调在面对不熟悉的数据时候,仍有可能出现幻觉。另外,因为RAG需要进行检索,可能会出现延迟,而微调的延迟较少。至于计算资源的对比,RAG需要的计算资源是远远小于微调的。


PersonaRAG的意义


RAG模型通过整合外部知识库来支持生成过程,以此来增强大型语言模型在知识密集型任务中的表现。然而,现有的RAG系统在个性化检索过程上表现不佳,无法适应用户的具体信息需求和上下文。坚持RAG路线的研究者们,有很多新的探索和尝试。现在热门的方案是GraphRAG,即通过构建知识图谱让RAG的回答更精确。这种方法比传统RAG有更多的细节,但是速度比较慢,费用相对高。


这篇论文提出的解决方式,是结合RAG和用户中心的智能体。这项研究由德国Passau大学提出,主要由Saber Zerhoudi和Michael Granitzer两位学者主导。他们在信息检索与生成、个性化技术以及大语言模型的应用领域有着丰富的研究经验。PersonaRAG的意义在于,解决了传统RAG的一项关键限制,即无法实现个性化的响应。


具体来说,PersonaRAG通过动态适应用户行为和实时数据,提高RAG的个性化水平和准确性。PersonaRAG的目标是提升大模型的精度和相关性,使其能够满足用户特定需求。这个框架有三个优势。第一,更个性化。通过用户画像和交互数据,系统能个性化定制回答,提升用户体验。第二,更精确。多智能体协作和链式推理确保系统能够理解复杂问题,提供准确答案。第三,动态适应。系统具备智能体的学习能力,可以动态调整,根据用户需求和反馈不断优化其表现。


PersonaRAG流程解释


简单理解,PersonaRAG就是借鉴用户中心的智能体来优化RAG。PersonaRAG引入了一个三步流程,检索、用户交互分析和认知动态适应。与传统的信息检索模型不同,PersonaRAG利用实时用户数据和交互实时适配RAG系统的检索生成。


系统通过这三个主要步骤,充分利用用户交互数据和动态适应机制,来提高RAG的有效性。


检索阶段:系统从大量文档中检索出潜在相关文档,为后续分析奠定基础。


用户交互分析:通过多个智能体的协作,系统收集和分析用户的历史数据、偏好和实时需求,优化文档选择和排序。


认知动态适应:系统集成了用户交互见解,通过链式推理和智能体协作,生成最终答案,确保准确性和用户满意度。


PersonaRAG具体步骤


第一步: 检索k个文档


这一阶段的目的是从外部知识库中检索与用户查询相关的多个文档。这是整个流程的起点,嵌入在传统的RAG当中。


让我们举个例子。首先用户输入查询,提出一个具体的问题。比如:谁在《办公室》这部剧中扮演了德怀特的兄弟?


然后,系统会检索相关文档,利用检索算法从大量文档中提取出与查询相关的k个文档。这些文档包含潜在的答案或有助于解答问题的信息。


第二步: 用户交互分析


在检索文档后,系统通过用户交互分析来增强信息处理。这涉及多个专门的智能体,它们协作以优化检索和生成过程,其中包括用户画像、情境检索、实时会话、文档排序、反馈等等,具体如下:




第三步: 认知动态适应


这一步是PersonaRAG的创新,添加了动态适应机制,利用实时用户数据持续优化和个性化交互。通过这种方式,PersonaRAG不仅能增强大模型输出的准确性和相关性,还能根据用户特定的需求动态调整。


认知集成


在这一阶段,系统利用用户交互分析的结果,动态调整其信息检索和回答生成策略。系统将用户交互分析步骤中获得的见解整合到其检索策略中,以更好地处理用户查询。其中,使用智能体有两种方式。第一种是选择性,也就是根据需要选择一个或多个特定智能体进行优化查询。例如,选择文档排序智能体和反馈智能体来优先检索更相关的文档。第二种是协作性,也就是利用全局消息池中的内容,通过多智能体协作提高系统的整体性能。全局消息池是集中存储系统处理过程中产生的信息,包括用户的偏好内容、历史搜索、推荐等。例如偏好内容,搜索关键词和用户反馈。


思维链


这一步将思维链添加到RAG系统中。思维链是一种提示词策略,通过逐步引导模型思考和推理,来生成更精确详细的答案。这个策略可以帮助模型更好地理解和回答复杂问题。例如输入提示词”为了解决问题,请逐步思考和推理,然后回答“。在这个过程中,模型逐步分析各个信息来源,进行逻辑推理和验证,直到得出最终结论。


生成答案


系统结合检索到的信息和用户画像分析结果,最终生成并验证准确答案。在分析和整合了所有相关文档后,系统确认Thomas Middleditch在《办公室》这部剧中扮演德怀特的兄弟Jeb Schrute。


实验结果


那么PersonaRAG效果如何?研究团队在几个问答数据集上对PersonaRAG进行了实验,结果令人欣喜:


● 在准确性上表现出色。PersonaRAG比传统RAG框架提高了5%以上的准确性,更好地适应用户的需求。


● 在个性化和响应调整方面表现出色,能够根据用户的个人资料和信息需求进行动态适应。


● 在适用性方面表现出色。推广到其他大模型架构(如Llama 3-70b和Mixture of Experts 8x7b),结果显示,PersonaRAG能带来超过10%的性能提升。


总而言之,研究表明将用户行为数据有效融入到大模型的推理和生成过程中,是信息检索个性化的新思路新。对比其他方法,PersonaRAG表现均优于传统RAG模型。具体的实验数据如下:



写在最后


传统RAG如同一位了解景点的导游,能够提供全面的信息,但却无法为每个游客量身定制体验。PersonaRAG更像一个经验丰富的出色导游,能够在与游客的交谈当中调整旅游路线,并且记住游客的兴趣和喜好,为后续旅程提供定制方案。


通过引入用户中心化的多智能体系统,PersonaRAG有效地增强了检索增强生成模型的个性化和精确性,并提供了一种有效的解决方案。通过个性化和动态调整,让搜索结果不再仅仅是关键词匹配的列表,而是为用户量身定制的信息体验,提升了智能搜索的精准度和用户满意度。PersonaRAG不仅在RAG领域的进步中贡献了一步,还为各种大模型应用提供了显著的优势。这标志着RAG向更智能、更具用户适应性的信息检索系统发展迈出了重要的一步。未来,我们也许会看到PersonaRAG成为智能信息检索的主流,带来更加智慧、敏捷的搜索体验。


53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询