AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


大模型“补丁”合规:提示工程、微调和RAG
发布日期:2024-06-22 07:28:26 浏览次数: 1899



在大模型系统中,提示工程(Prompt Engineering)、微调(Fine-tuning)和检索增强生成(Retrieval Augmented Generation,RAG)分别扮演了不同但互补的角色,共同组成了大模型产品的三叉戟补丁升级路径。
虽然他们在大模型开发和运营的地位非常重要,但在数据及人工智能法律合规领域,似乎鲜有人深入讨论。当我们深入研究这些不同技术背后的运行原理后,才有机会发表更深更贴切的法律合规意见。
OPENAI在其大模型优化指南中提出了一个基本线性流程,从提示工程开始,然后转到检索增强生成,最后再进行微调。但是,OPENAI认为大模型的优化不仅仅只是一个前后顺序或者不同的方式,更重要的仍然是不同方法之间的杠杆比例运用。

01  提示工程

提示工程(Prompt Engineering)通过设计和优化提示词来引导生成式AI模型生成所需的输出。它涉及到自然语言处理、机器学习和人机交互等多个领域的知识。提示工程解决的是提出准确有效的问题。

从目前来看,提示工程是现阶段所有大模型补丁升级中最经济便捷的路径。一般而言,如果能够通过提示工程解决的,不宜直接使用RAG特别是微调机制来处理,否则成本代价倚高。
假设你在编写一个旅游指南,需要大模型为你生成一些内容。如果你直接问:“请告诉我巴黎的有趣景点”,模型可能会给出一些通用的信息。通过提示工程,你可以调整提示来获得更具体的答案,比如:“请为我写一篇关于巴黎卢浮宫的详细介绍,包括其历史背景、主要展品和游客须知。”这样的提示会引导模型提供更详细和具体的信息。

在大模型系统及产品中,大模型需要采取一定的措施以防止大模型的越狱风险,即通过越狱而规避大模型限制生成的过程,通过精心设计和细化提示工程,用户可以引导LLM绕过限制。

而大模型的越狱,将可能导致大模型产品的生成物泄露特定用户的个人信息(如该用户曾输入的Prompt内容),特定用户设计的智能体(AI agent)中知识库中的全量数量,以及企业知识库中的商业信息。因此,不管大模型是开源还是闭源,提升大模型的鲁棒性仍然是一项重要的课题。
02 检索增强生成

检索增强生成(RAG)是一种技术,它通过优化大型语言模型的输出,使其能够在生成响应之前引用训练数据来源之外的权威知识库。RAG通过引入信息检索组件,利用用户输入从新数据源提取信息,并与LLM结合生成更好的响应。

有趣的是,香港隐私管理机构给 RAG 起了另一个通俗易懂的名字——接地(grounding),意思是将 AI 模型与可验证的现实世界的知识以及外部来源的范例联系起来的过程。

(openai官方RAG图示)
从技术原理来看,RAG本身也是一种基于预训练的深度学习模型,旨在通过结合检索和生成的方式提高数据检索的精度和效率。
在预处理阶段,需要将外部数据源(通常表现为开发者平台中的“知识库”)内容进行向量化并存储到向量数据库。比如对于大段法律法规文本数据来说,需要进行切分并得到许多文本块,对于每个文本块进行向量化并进行存储。
03 微调
微调(Fine-tuning)是指在预训练模型的基础上,使用特定领域的额外数据(集)进行进一步训练,以使模型在该领域表现更佳。可以将微调看作是对大模型进行专门训练,使其在某些特定任务上更为精通。
想象你是垦丁律所一名数据合规律师顾问,正在为客户准备一份关于数据保护的详细报告。你可以首先通过提示工程设计出精确的问题:“请详细说明最新的GDPR修正案对跨境数据传输的影响。”接着,你可以利用微调过的大模型,该模型已经通过大量的垦丁内部数据保护法律文献数据集进行训练,能够提供非常专业和场景式回答。最后,使用RAG技术,模型会先检索最新的相关法律文献,确保提供的答案是基于最新的信息和法规。
通过这样综合应用,你不仅能够获得详细而专业的答案,而且答案还能够及时反映最新的法律动态。提示工程优化了问题的表达,微调提升了模型在特定领域的专业性,而检索增强生成则保证了信息的时效性和准确性。

04 合规打补丁的逻辑

从法律法规角度来看,不管是提示工程(Prompt Engineering)、微调(Fine-tuning)还是检索增强生成(RAG),目前绝大部分的数据保护或人工智能法规一般只关注这类模式的安全性问题,而不是数据保护。

提示工程(Prompt Engineering)、微调(Fine-tuning)以及检索增强生成(RAG)各自均沿着不同的路径实现了发展和跃变。
以提示工程为例,其已从最开始的单纯提示词发展出了诸多变种,而不同模式下,提示工程的法律性质以及数据合规均有本质差别。
针对单纯的提示词,可能是用户的输入,也可能是大模型系统的预设,但不管如何,提示词的输入本身应当赋予用户一定的控制权利。如《生成式人工智能服务管理暂行办法》第十一条规定:“提供者对使用者的输入信息和使用记录应当依法履行保护义务,不得收集非必要个人信息,不得非法留存能够识别使用者身份的输入信息和使用记录,不得非法向他人提供使用者的输入信息和使用记录。提供者应当依法及时受理和处理个人关于查阅、复制、更正、补充、删除其个人信息等的请求。”
因此,我提出如一些初步的产品设计PBD合模需求:
清除
清除上下文后,重新开启对话,确保清除后上下文不再记忆关联提示词及答复
需要区分是清除问答原文内容,还是仅清除上下文的关联记忆
删除问答记录
删除选择项或者同一智能体下的全部问答记录信息
须同时清空上下文关联记忆
账号关联
提示工程内容非和用户账号或相关标识实施绑定
中国大模型须基于账号提供服务,此项合规在中国法环境下并不现实
分库保存
提示工程内容本身具有一定的敏感性,可能会基于提示注入攻击而泄露
宜私有数据库服务端独立保存,不被输出侧所调用
模型训练
允许大模型将提示工程内容用于训练模型,优化用户体验
获得用户的同意(opt-in)

截止目前,大模型提示工程已经从提示工程师职业,衍生发展出了一个庞大的商业模式,大量科技型企业进入提示工程领域创业,且取得了不赖的成绩。例如,目前已经退出中国市场的promptperfect,已经将提示工程AI化后作为插件嵌入大模型产品中的输入框之中。
插件、sdk或者API模式下的提示工程下,用户可以直接在任何可接入提示工程插件的大模型产品中调起提示词服务。例如在文心一言中,用户在输入框中可以直接@三方插件方式共同输入提示词。
从法律定性上来看,提示工程服务属于独立的数据处理者,不仅要进行独立入驻身份标识,也需要独立向用户取得授权同意提示。如果提示工程服务本身属于基于大模型的生成服务,在中国法语境下还需要实施算法备案。退出中国市场的promptperfect,兴许就是基于难以备案的原因。
而对于微调(Fine-tuning)而言,在中国意味着一个“相对全新”的大模型系统或产品,基于开源大模型微调场景就像是接入一个全新的未经评估的语料库,但这个语料库的数据集可能涉及到侵犯知识产权、个人信息或商业信息的可能性。
微调(Fine-tuning)模式下,基于全新数据集的预训练后,其本质是新的大模型系统。我国的大模型备案区别为两种类型,一是备案,二是登记。前者是自研大模型,需要严格的备案程序,包括提交《生成式人工智能(大语言模型)上线备案表》、自评估报告以及测试题等,而后者的本质是“套壳”,仅仅只是调用第三方大模型能力后提供自身的前端交互界面。
《北京市生成式人工智能服务已备案(登记)信息公告》指出:“对于通过API接口或其他方式直接调用已备案大模型能力的生成式人工智能应用或功能,按照国家有关规定,经北京市网信办同意,拟采用登记方式,允许上线提供服务。”因此,单纯“套壳”需要登记即可,微调仍然是需要实施备案。‍‍‍
但需要说明的是,微调本身也可能是一项法律义务,《生成式人工智能服务管理暂行办法》第十四条规定:“提供者发现违法内容的,应当及时采取停止生成、停止传输、消除等处置措施,采取模型优化训练等措施进行整改,并向有关主管部门报告。”在此条件下,需要将自研模型微调和三方基于开源大模型微调场景进行区别,前者非常类似书籍出版后二次出版,或者是游戏出版后热更新版本迭代,既然在传统领域无须再申请版号,那么在产品自行微调(Fine-tuning) 条件下,自研微调大模型进行重新备案就显得有些多余了。

事实上,这对检索增强生成(RAG)这种接入大模型外部数据知识库而生成内容的模式而言,道理亦是同样的。但需要区别的是,检索增强生成(RAG)接入的是私有或本地知识库,如果只是面向内部提供使用可得法规豁免。‍‍‍‍

如果将上述三个补丁纳入形成AI agent的工作流时,似乎将可能变得更加复杂,毕竟从补丁到流程,可能是质的飞跃。


53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询