微信扫码
与创始人交个朋友
我要投稿
面对快速生成的新知识,大模型存储的预训练知识往往具有滞后性。为了能够让大模型具备最新的知识,当前主要方法是对新的知识文档进行持续预训练,然而LLM在文档中提取知识时,往往会面临困难。
为此,本文提出了SELFTUNING学习框架,可让LLM通过自学的方式从文档中获取最新的知识,实验结果表明:SELF-TUNING 在所有知识获取任务中始终表现出色,并避免了灾难性遗忘。https://arxiv.org/pdf/2406.06326
基于大量的数据,大模型在预训练阶段可以学习大量的事实知识,并在许多知识密集型任务中表现出了不凡的能力。然而,世界无时无刻不在变化,同时也产生了大量的数据知识,面对即时性要求较高的应用场景,LLM内部的事实知识将不能满足需求。当大模型无法获取新知识时,会有很大的概率出现幻觉,如果是对客服务类场景,这将是致命的。为此,让LLM保持最新状态有必要的。
为了能将最新的知识注入到大模型参数中,本文进行了深入的研究。如下图所示:可见,传统的标准做法是对具有新知识的原始语料进行持续预训练,然而,这种方法在提取嵌入知识方面存在困难,尽管指令调优(instruction-tuning)可以在一定程度上帮助,但LLMs检索到的知识仍然受到限制。最近也开始有研究人员提出在预训练之前,对 QA 数据和相关文档进行微调,目的是教会模型如何从文档中获取知识并回答问题。虽然这种方法大大优于标准方法,但本文研究发现,该方法在知识提取方面能力仍然有限。
费曼技术被证明在促进人类学习和知识理解方面是非常有效的。这种强大的学习方法之所以取得显著成功,通常归因于它强调“理解”、“自我反思”(“发现差距并进行复习”),而不是单纯的“记忆”。受此启发,本文作者提出了「SELF-TUNING」,这是一个使 LLM 能够有效内化和回忆新知识的框架,同时为了能够深入研究大模型如何在单域、多域和跨域中获取新知识,作者还精心制作了「三个 Wiki-Newpages2023-QA」 数据集。
SELF-TUNING框架通过自我教学(SELF TEACHING)策略来增强模型文档知识获取能力,其主要集中于三个关键方面:记忆、理解和自我反思。
Wiki-Newpages-2023-QA数据集的创建是为了提供一个全面的基准,用于评估和理解LLMs如何从新的、未见过的文档中学习和吸收知识。数据集收集了2023年9月至10月间发布的新文章,确保这些内容在LLMs预训练截止日期之后,从而保证模型之前未接触过这些信息。然后使用GPT-4和人工策划的提示生成各种问题及其答案,以覆盖文档中所有的事实信息。该数据集主要涉及单领域、多领域、跨领域。数据集被划分为训练集和测试集,以便在单领域和多领域环境中进行评估。跨领域测试直接使用Wiki-Film数据集。其中:Wiki-Bio专注于生物领域的文档;Wiki-Multi涵盖多个不同领域的文档;Wiki-Film用于测试模型在不同领域间的泛化能力。
下表展示了SELF-TUNING框架在知识记忆、知识提取、推理方面的能力,可以发现该框架显著降低了困惑度(Perplexity, PPL),表明模型对新文档的记忆更为有效;
在知识提取方面,提高了精确匹配(Exact Match, EM)、召回率(Recall)、F1分数,以及Rouge-L指标,显示出在提取事实信息方面的高准确性。
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-08-13
2024-05-28
2024-04-26
2024-08-21
2024-06-13
2024-08-04
2024-07-09
2024-09-23
2024-07-18
2024-04-11