微信扫码
与创始人交个朋友
我要投稿
AssisTRAG通过集成一个智能信息助手来提升LLMs处理复杂推理任务的能力。该框架由两个主要组件构成:一个冻结的主语言模型和一个可训练的助手语言模型。
可以看出,相比之前的RAG,该框架主要创新点是引入一个Assistant LLM,下面详细看下助手语言模型功能。
AssisTRAG主要分为两个类别来处理复杂任务:记忆管理和知识管理。记忆管理涉及整合和分析来自内部内存的内容,而知识管理则侧重于利用外部知识。这两个主要功能由AssisTRAG的四个核心能力支持:
记忆管理模块通过存储和检索历史交互来提升主语言模型的性能。有效的记忆管理包括两个主要过程:捕获新见解和检索先前存储的信息。这两个过程主要有以下三个能力:
笔记记录功能 负责记录每个历史交互中的关键信息和推理模式。具体来说,给定主语言模型的历史交互(包括问题 、参考答案 和生成的答案 ),助手的任务是将答案背后的关键推理过程记入记忆槽 中:
这样,所有先前问题的记忆槽累积起来形成助手的记忆 ,用于后续的记忆检索。
作用:通过记录和存储历史交互中的关键推理过程,助手能够在面对类似问题时快速检索和应用这些推理模式,从而提高回答的质量和效率。
记忆检索器利用助手的记忆 ,根据当前问题 检索历史上相关的记忆。具体来说,记忆检索器会检索与当前问题相关的历史记忆,并将其表示为:
作用:通过从记忆中检索相关历史记忆,助手可以为当前问题提供额外的上下文和信息,帮助主语言模型更好地理解和回答问题。
如果问题是全新的,检索到的记忆可能不仅无助于回答,还可能负面影响主语言模型的响应。因此,助手需要评估检索到的记忆是否对当前问题有帮助。具体来说,助手使用一个提示来评估检索到的记忆是否有助于回答当前问题。只有当答案是肯定的时候,检索到的记忆才会被提供给主语言模型。
实现:通过一个提示,助手评估检索到的记忆是否对当前问题有益。如果评估结果是肯定的,这些记忆槽将被提供给主语言模型。
作用:这一计划确保了只有相关的记忆会被提供给主语言模型,避免了无关或负面的记忆干扰回答的质量。
知识管理涉及以下四个能力:
AssisTRAG 的训练过程分为课程助理学习和强化偏好优化两个阶段。课程学习阶段通过逐步增加任务复杂性来提升助手在 RAG 过程中的技能。强化偏好优化阶段则通过根据主 LLM 的反馈调整助手的输出,确保助手提供的帮助更加贴合主 LLM 的需求。
AssisTRAG 通过三个步骤启动其推理过程:
在这个初始阶段,AssisTRAG 首先激活 Action II 来理解主 LLM 的信息需求。然后,它使用 Tool I 和 Tool II 分别从内部记忆和外部知识库中检索相关信息。接着,它调用 Action III 从检索到的文档中提取关键知识。
在这一阶段,AssisTRAG 决定是否将检索到的记忆和提取的知识提供给主 LLM。它激活 Plan I 和 Plan II 来评估这些检索到的记忆和知识对当前问题的相关性和有用性。如果助手认为这些信息有帮助,它们将被提供给主 LLM 以辅助回答生成。
在最后阶段,AssisTRAG 提示主 LLM 根据问题、其内部知识和助手提供的信息生成答案。之后,AssisTRAG 激活 Action I,利用其笔记功能,捕捉交互中的关键推理步骤并将其纳入其记忆中。这确保了助手的知识库保持最新。
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-07-18
2024-05-05
2024-06-20
2024-09-04
2024-05-19
2024-07-09
2024-07-09
2024-07-07
2024-06-13
2024-07-07