AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


一文理解使用大模型的四种方式:提示工程、检索增强、微调和预训练
发布日期:2024-08-23 06:47:24 浏览次数: 1603


怎么用大模型?从易到难有四种方式。

这四种方式都可以改变模型行为,以便模型输出更符合我们想要的结果。每种方式各有优缺点。

这四种方式是可以搭配使用的。

提示工程(Prompt Engineering)

提示是与大模型交互最基本、最简单的方式。你可以把提示看作是给模型的指令。相当于告诉模型你希望它给你反馈什么样的信息。举例来说,假如你想了解中国古代史,你可以说

请介绍下中国古代史

或者

我是一名小学生,请介绍下中国古代史

这里“我是一名小学生”,就相当于一个提示,模型会理解你的意图,以小学生能听懂的语言进行介绍。

可以通过精心设计提示词,获得符合你预期的结果。

精心设计的提示词不可能一蹴而就,需要迭代更新,逐步逼近你的结果。可以用版本的方式管理每次迭代的结果,所以叫提示工程。

写好提示词,也需要掌握一些技巧。可以参考《编写高质量Prompt的9个原则》

提示工程这种方式,会打字就可以做。

检索增强(Retrieval Augmented Generation,简称RAG

RAG是一种通过知识库外挂的形式,让问题回复更精准。

当模型需要回答问题时,它首先从知识库中查找并收集相关信息,然后根据该信息回答问题,以确保它能给你最好的答案。

这种方式出现的原因是因为大模型只具有通用信息,而你有一些行业知识或特定问题,比如公司会有自己独有的资料库或者档案。借助RAG,可以把你独有的信息存储到向量数据库,模型回答问题时,调用这个数据库里的信息,给出更符合你的场景和要求的答案。

大模型的训练数据是有截止时间的,不是实时更新,比如GPT-4训练数据目前截止时间是2023年12月。

意味着GPT-4模型不知道这个时间以后发生的事情,利用RAG技术可以实时抓取最新数据,比如进行新闻搜索,以根据最新信息提供答案。

RAG这种方式,需要了解一些开发技术。

以上两种方式对模型本身不做任何改变。

微调(Fine-tuning)

微调指的是在预训练的大模型基础上,通过进一步的训练来适应特定的任务或数据集的过程。

当预训练模型需要应用于具体的、特定的任务(如特定领域的文本分类、情感分析等),但这些任务的训练数据量较小,直接使用预训练模型无法达到最佳效果。微调就是通过在特定任务的数据上继续训练模型,使模型更好地适应这些数据的特征。

微调需要新的信息、时间、算力来进行训练,如果你需要模型更好的理解某些特定主题,微调会很划算。就像是教模型成为新的领域专家。经过微调后,模型可以为你提供更准确、更接近你所需内容的答案。

微调这种方式,改变了大模型的某些参数。

预训练(Pre-training)

预训练是语言模型学习的初始阶段。预训练时,需要海量未标记的文本数据,比如GPT-3使用了45TB(万亿字节)的数据,以无监督学习的方法对模型进行初始训练。预训练目标是捕捉和学习语言、图像或其他类型数据的内在结构和特征。

预训练模型通常基于深度神经网络,如循环神经网络(RNN)、长短期记忆网络(LSTM)、Transformer等,这些架构能够处理序列数据并捕捉长距离依赖关系。

预训练的结果是一个通用的模型,它对语言有一个基本的理解,但还没有针对任何特定任务进行优化。

有报道称,OpenAI 的 GPT-4 和 Google 的 Gemini Ultra 的训练成本预计分别约为 7800 万美元和 1.91 亿美元。

预训练这种方式,是极少数公司在做的,绝大多数公司可以基于开源模型做微调。

各种方式对比如下图:


53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询