AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


社区供稿 | 本地部署通义千问大模型做RAG验证
发布日期:2024-04-30 06:00:26 浏览次数: 2009


01

背景



在之前我们通过使用千问的公网在线API,实现了对大模型的调用。但出于对数据安全与隐私保护、网络稳定性、定制化需求、知识产权保护、自主可控性、业务连续性以及成本效益等多方面的考虑,在有些场景下,需要使用一些已经训练好的基模进行本地化部署。通过本地化部署,可以更好地满足自身特定需求,确保业务的合法、稳定、连续运行,并提高对模型的掌控能力。


这篇文章中,我们通过将模搭社区开源的大模型部署到本地,并实现简单的对话和RAG。


02

开发框架介绍



ModelScope Library

ModelScope Library是魔搭社区提供的一个能够快速、方便的使用社区提供的各类模型的Python library,其中包含了ModelScope官方模型的实现,以及使用这些模型进行推理,finetune等任务所需的数据预处理,后处理,效果评估等功能相关的代码,同时也提供了简单易用的API,以及丰富的使用样例。通过调用library,用户可以只写短短的几行代码,就可以完成模型的推理、训练和评估等任务,也可以在此基础上快速进行二次开发,实现自己的创新想法。本文中我们使用这个库进行模型的加载。


ModelScope Library支持的模型不光局限于huggingface的transformers架构类的模型,并且社区提供大量的中文大语言模型,更适合我们在国内下载,也方便学习及使用。


03

环境准备



1. 环境检查

本地实验环境:

系统:Win11

显卡:1070(8G显存)


首先更新显卡驱动到最新版本,可以去官网下载或者直接在NVIDIA Geforce Experience中直接更新驱动到最新版本,新版本的驱动向下兼容更多版本的CUDA。


查看显卡驱动支持的CUDA的最高版本,小于等于此版本的CUDA均可以使用。CMD或powershell中执行如下命令:

nvidia-smi


https://pytorch.org/查看当前最新版PyTorch支持最低Python版本为3.8,支持CUDA的11.8和12.1版本,后面我们选择安装12.1版本。



最终生成的命令可以拷贝出来,下文需要使用。


2. 安装CUDA 12.1(可选)

此步骤可选,不安装的话后面Torch会自动安装


下载地址:

https://developer.nvidia.com/cuda-12-1-1-download-archive


下载完成后直接安装即可,如果已经安装需要先卸载后再装。


3. 安装conda

conda可以用来管理Python环境,后面我们会使用conda创建一个Python3.10的运行环境。


下载地址:

https://www.anaconda.com/download


安装完成后,为了能在命令行中使用,需要将conda的相关目录加入环境变量,例如安装在D:\developer\anaconda,则需要将以下目录添加到PATH中:

D:\developer\anacondaD:\developer\anaconda\ScriptsD:\developer\anaconda\Library\binD:\developer\anaconda\Library\mingw-w64\bin

打开powershell,执行conda init初始化conda的powershell和cmd环境,linux下会初始化bash环境,初始化后方便进入conda创建的Python环境。


4. 使用conda创建PyTorch环境

我们使用conda创建一个Python版本为3.10的Python运行环境,在命令行中执行如下命令:

conda create -n pytorch python=3.10conda activate pytorch

使用上文中安装PyTorch的命令安装PyTorch


conda install pytorch torchvision torchaudio pytorch-cuda=12.1 -c pytorch -c nvidia


5. 下载模型

我们可以去模搭社区获取模型,国内的地址,下载速度快,不需要魔法可以直接访问。


模型库地址:https://modelscope.cn/models

这里使用Qwen1.5-0.5B-Chat这个对话模型进行体验,模型较小,占用内存少,生成速度快。


模型地址:

https://modelscope.cn/models/qwen/Qwen1.5-0.5B-Chat/summary


点击模型文件 -> 下载模型,可支持两种下载方式:Sdk和Git


我们通过git的方式将模型文件下载到本地

mkdir Qwen && cd Qwengit clone https://www.modelscope.cn/qwen/Qwen1.5-0.5B-Chat.gitcd ..


04

加载模型



1. 模型功能验证

可以使用modelscope Library加载模型,使用方法与transformers相同,使用AutoModelForCausalLM.from_pretrained方法和AutoTokenizer.from_pretrained从本地文件中加载,如果路径不存在,这两个方法会自动到modelscope下载模型文件。


需要先安装modelscope库:

pip install modelscope transformers


使用量化模型的话需要安装以下库:

pip install optimum auto-gptq


创建一个Python文件,放到与上文Qwen文件夹同级的目录中,内容如下:

from threading import Thread
from modelscope import (AutoModelForCausalLM, AutoTokenizer)from transformers import TextIteratorStreamer
device = "cuda"# 将模型加载到哪个硬件,此处为GPU
model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen1.5-0.5B-Chat", # 模型文件夹路径device_map="auto")tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen1.5-0.5B-Chat")
while True:user_input = input("请输入问题(q退出):")if user_input.lower() == "q":print("exit")breaktry:messages = [{"role": "system", "content": "You are a helpful assistant."},{"role": "user", "content": user_input}]text = tokenizer.apply_chat_template(messages,tokenize=False,add_generation_prompt=False)inputs = tokenizer([text], return_tensors="pt").to(device)
streamer = TextIteratorStreamer(tokenizer)generation_kwargs = dict(inputs, streamer=streamer, max_new_tokens=512)thread = Thread(target=model.generate, kwargs=generation_kwargs)thread.start()generated_text = ""count = 0for new_text in streamer:generated_text += new_textprint(new_text, end="", flush=True)print()except Exception as e:print(f"出错了:{str(e)}")

上面的代码首先从本地模型文件夹中加载了模型和分词器,然后我们在一个循环中接收用户输入,并将输入处理后通过大模型进行内容生成。我们可以通过python运行上面的文件,运行后,就可以测试了,就测试运行效果如下:


2. LangChain加载本地模型

到目前为止,我们已经在本地跑起来了一个千问0.5B大语言模型,接下来需要让langchain能够加载这个本地模型。


如果要用langchain加载模型,我们需要继承langchain.llms.base.LLM 类,并且重写_llm_type, _call方法,因为我们需要支持流式输出,就需要重写_stream方法。可参考langchain的官方文档:Custom LLM | ?️? LangChain

下面是这个类的代码:

from abc import ABCfrom threading import Threadfrom typing import Any, List, Mapping, Optional, Iterator
from langchain.callbacks.manager import CallbackManagerForLLMRunfrom langchain.llms.base import LLMfrom langchain_core.outputs import GenerationChunkfrom modelscope import AutoModelForCausalLM, AutoTokenizerfrom transformers import TextIteratorStreamer
device = "cuda"# the device to load the model onto
model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen1.5-0.5B-Chat",device_map="auto")tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen1.5-0.5B-Chat")

class QwenLocalLLM(LLM, ABC):max_token: int = 10000temperature: float = 0.01top_p = 0.9
def __init__(self):super().__init__()
@propertydef _llm_type(self) -> str:return "Qwen"
def _call(self,prompt: str,stop: Optional[List[str]] = None,run_manager: Optional[CallbackManagerForLLMRun] = None,**kwargs: Any) -> str:messages = [{"role": "system", "content": "You are a helpful assistant."},{"role": "user", "content": prompt}]text = tokenizer.apply_chat_template(messages,tokenize=False,add_generation_prompt=True)model_inputs = tokenizer([text], return_tensors="pt").to(device)generated_ids = model.generate(model_inputs.input_ids,max_new_tokens=512)generated_ids = [output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]return response
@propertydef _identifying_params(self) -> Mapping[str, Any]:"""Get the identifying parameters."""return {"max_token": self.max_token,"temperature": self.temperature,"top_p": self.top_p,"history_len": self.history_len}
def _stream(self,prompt: str,stop: Optional[List[str]] = None,run_manager: Optional[CallbackManagerForLLMRun] = None,**kwargs: Any,) -> Iterator[GenerationChunk]:try:messages = [{"role": "system", "content": "You are a helpful assistant."},{"role": "user", "content": prompt}]text = tokenizer.apply_chat_template(messages,tokenize=False,add_generation_prompt=False)inputs = tokenizer([text], return_tensors="pt").to(device)
streamer = TextIteratorStreamer(tokenizer)generation_kwargs = dict(inputs, streamer=streamer, max_new_tokens=512)thread = Thread(target=model.generate, kwargs=generation_kwargs)thread.start()generated_text = ""for new_text in streamer:generated_text += new_textprint(new_text, end="", flush=True)yield GenerationChunk(text=new_text)print()except Exception as e:print(f"出错了:{str(e)}")yield GenerationChunk(text=f"生成失败: {str(e)}")

最后修改上一篇文章中的生成方法,将初始化千问模型的代码替换为上面的实现类:

# 替换前model = Tongyi()model.model_name = "qwen-max"
# 替换后model = QwenLocalLLM()


05

效果展示



更换之前:


生成结果:

离线包更新的原理涉及以下几个方面:


1. **离线包结构**:离线包通常是一个包含前端资源的`.zip`包,这些资源可以是HTML、CSS、JavaScript文件或者图片等。这些资源被组织在一起,以便客户端能够下载并离线使用。
2. **离线包类型**:可能有不同类型的离线包,比如全量包和增量包。全量包包含所有更新的资源,而增量包只包含与旧版本相比发生变化的资源。
3. **渲染过程**:当客户端应用启动或用户触发更新时,会通过特定的RPC调用获取最新的离线包信息。然后,客户端会下载这个包,并将其解压缩到本地的沙盒目录。如果配置了验签,客户端还会验证包的完整性。一旦包被成功解压和验证,客户端会使用新的资源来渲染页面。
4. **更新流程**:更新流程包括构建前端`.zip`包,在线生成`.amr`包(可能是处理签名和版本信息的打包格式),然后通过发布平台将包推送给客户端。客户端在接收到更新信息后,会下载并应用新的离线包。
5. **检查和调试**:如果客户端无法加载新包,可以通过检查RPC返回结果、确认加载的离线包信息、检查沙盒目录下的解压情况、验证签名以及使用Safari调试H5页面来排查问题。
6. **客户端范围**:在控制台上传新版本离线包时,需要指定支持的客户端版本范围,只有在这个范围内的客户端才能接收并更新离线包。
7. **用户交互**:在应用中,用户触发更新后,会收到提示,更新完成后可以访问使用新离线包的页面。
详细原理可以参考[离线包简介](/document_detail/59594.html#topic-2125626)。

耗时15秒多,而且按要求生成了Markdown格式的文本。


更换成本地Qwen-0.5B模型:


生成结果:


离线包更新的原理是这样的:
1. 首先,您需要安装离线包相关的配置文件。2. 然后,您可以将离线包添加到应用的缓存或数据库中,以便下次下载使用。3. 一旦离线包添加到缓存或数据库中,它将在后续请求中的 `<head>` 响应头中包含一个 `Content-Disposition` 属性,指定要下载的离线包的类型和URL,以及其离线包大小。4. 然后,服务器会在适当的时候发送一个响应头,其中包含了离线包的状态码(如 `200 OK`)和一些相关信息,例如离线包的实际URL。5. 最后,客户端可以从响应头中获取离线包的内容,并进行相应的操作。
此外,离线包还包含一些额外的信息,例如离线包的完整路径、离线包的版本号等,这些信息可以用于维护离线包的历史记录和调试。

生成内容长度仅为上面的一半不到,耗时也不到一半,但内容的正确性就一言难尽了。


对比后可以看到,prompt相同的情况下,Qwen1.5-0.5B-Chat因为模型较小,生成速度较快,但生成内容的质量相比在线的qwen-max、qwen-plus这些还是相差甚远。


当前文章仅提供本地化部署的思路,如果需要达成更好的效果,则需要使用qwen系列更大的模型,例如Qwen1.5-72B-Chat,而且要更高配置的硬件支持。


06

后续方向



私有化部署大模型花费的精力很多,不过大模型私有化部署也有一些好处,比如:

数据安全:能够更好地保护企业的数据隐私和安全。

定制化:可以根据企业的具体需求进行定制和优化。

掌控权:企业对模型具有更大的掌控权,可以进行灵活的管理和调整。

效率提升:可针对企业特定业务流程进行优化,提高工作效率。

稳定性:减少对外部网络和服务的依赖,提高系统的稳定性。

合规性:有助于满足企业在数据隐私和安全方面的合规要求。

品牌建设:打造具有企业自身特色的人工智能解决方案,提升品牌形象。

资源优化:根据企业的实际情况进行资源分配和优化,避免不必要的浪费。


可根据企业自身需求进行选择,后续我们会继续学习探索。







53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询