微信扫码
与创始人交个朋友
我要投稿
关于 Milvui
可以参考我的前两篇文章
• 一篇文章带你学会向量数据库Milvus(一)[1]
• 一篇文章带你学会向量数据库Milvus(二)[2]
下面我们安装 pymilvus
库
pip install --upgrade --quiet pymilvus
如果你使用的不是 Miluvs
数据库,那也没关系,langchain
已经给我们分装了几十种向量数据库,你选择你需要的数据库即可。本文中我们是系列教程中一篇,所以我们使用 Miluvs
向量库。
这里需要明确的两个功能是:
• embedding Model
所做中工作就是将 image
、Document
、Audio
等信息向量化.
• vectorBD
负责保存多维向量
我这里使用 AzureOpenAIEmbeddings
是个收费的模型。有开源的 embedding Model
可以部署在本地使用,如果你的机器性能足够好。如果要本地部署可以参考 docker
部署 llama2
模型 。
这里我使用 AzureOpenAIEmbeddings
, 相关配置我放到了 .env
文件中,并使用 dotenv
加载。
# AZURE config
AZURE_OPENAI_ENDPOINT=''
AZURE_OPENAI_API_KEY=''
OPENAI_API_VERSION=2024-03-01-preview
AZURE_DEPLOYMENT_NAME_GPT35 = "gpt-35-turbo"
AZURE_DEPLOYMENT_NAME_GPT4 = "gpt-4"
AZURE_EMBEDDING_TEXT_MODEL = "text-embedding-ada-002"
这里各位可以依据自己的情况设定即可。
上面已经说明了向量库以及embedding model
的关系。我们直接使用 langchain
提供的工具连完成 embedding
和store
。
# 初始化 embedding model
from langchain_openai import AzureOpenAIEmbeddings
embeddings = AzureOpenAIEmbeddings()
from langchain_community.vectorstores import Milvus
vector = Milvus.from_documents(
documents=documents, # 设置保存的文档
embedding=embeddings, # 设置 embedding model
collection_name="book", # 设置 集合名称
drop_old=True,
connection_args={"host": "127.0.0.1", "port": "19530"},# Milvus连接配置
)
执行完成上面的代码,我们就将pdf中文档内容保存到 vector_db
中。
字段 vector
就是保存的多维向量。
虽然现在我们还没有使用 LLM
的任何能力,但是我们已经可以使用 vector
的搜索功能了。
query = "CodeGeeX模型API参数有那些?"
docs = vector.similarity_search(query)
print(docs)
# 带score搜索
query = "CodeGeeX模型API参数有那些?"
docs = vector.similarity_search_with_score(query, k=2)
print(docs)
similarity_search
与 similarity_search_with_score
的区别就是 similarity_search_with_score
搜索出来会带有一个 score
分值的字段,某些情况下这个 score 很有用。
langchain
不仅仅提供了基础的搜索能力,还有其他的搜索方法,感兴趣的可以去研究下。
准备工作我们已经就绪,接下来我们使用langchain
构建我们的chat。
既然是聊天也就是我们跟模型的一问一答的形式来体现。这两年LLM
的出现,关于 LLM 的知识里面我们估计最熟悉就是角色设定了。
• 什么是角色设定:下面 OpenAI 给出的回答:
在大型语言模型(LLM)中,角色设定指的是为AI助手创建一个特定的人格或身份。这个设定包括AI助手的说话风格、知识领域、价值观、行为方式等各个方面。通过这些设定,AI助手可以扮演不同的角色,比如专业的客服、风趣幽默的聊天对象,或是特定领域的专家顾问。
角色设定可以让AI助手的回答更加符合特定的场景和用户的期望。比如一个扮演医生的AI助手,会用专业术语解释病情,给出严谨的建议;而一个扮演朋友的AI助手,会用轻松的语气聊天,给出生活化的提示。
此外,角色设定还可以帮助限定AI助手的行为边界,避免其做出不恰当或有害的回应。设定明确的角色定位,有助于AI助手更好地理解自己的身份和职责,从而提供更加合适和有帮助的回答。
总的来说,角色设定让AI助手的对话更加自然和人性化,让用户获得更好的使用体验。同时它也是引导AI助手行为、确保其安全可控的重要手段。
在 chat中我们同样也需要以及简单的 prompt
:
template = """You are an assistant for question-answering tasks. Use the following pieces of retrieved context to answer the question. If you don't know the answer, just say that you don't know.
Question: {question}
Context: {context}
Answer:
"""
这个prompt
中很明显我们设定了两个变量 question
, context
。
question
:这个会在后面被替换为用户的输入,也就是用户的问题。
context
: 这个变量我们在后面会替换为向量检索出来的内容。
请思考下:我们最后提供给LLm的内容只是用户的问题呢还是问题连带内容一起给到LLM?
基于上面的内容我们基本的工作已经完成,下面就是我们基于 langchain
构建chat
。
import os
from langchain_core.prompts import ChatPromptTemplate
prompt = ChatPromptTemplate.from_template(template)
print(prompt)
# 加载chat model
from langchain_openai import AzureChatOpenAI
from langchain_core.runnables import RunnableParallel,RunnablePassthrough
from langchain_core.output_parsers import StrOutputParser
llm = AzureChatOpenAI(
azure_deployment=os.environ.get('AZURE_DEPLOYMENT_NAME_GPT35')
)
retriever = vector.as_retriever()
chain = (
RunnableParallel({"context": retriever, "question": RunnablePassthrough()})
| prompt
| llm
| StrOutputParser()
)
对于初学者可能有个问题就是:为什么这里有个 AzureChatOpenAI()
的实例 llm
。
这是个好问题,对于初学者会被各种 LLM 搞晕??。
• AzureOpenAIEmbeddings()
这是一个负责将文本向化话的 model
。
• AzureChatOpenAI()
是一个 chat
模型。负责聊天的 model。
基于 langchain
的链式调用构建 chat
chain = (
RunnableParallel({"context": retriever, "question": RunnablePassthrough()})
| prompt
| llm
| StrOutputParser()
)
这里看到 prompt
中的两个变量context
, question
会被替换。
为什么我们要写变量在 prompt
中?
• 工程化:我们在做LLM相关的工作最重要的就是prompt
工程。这也是个重要的话题后面再说。
• 灵活:
示例一:
question = "CodeGeeX模型API参数有那些?"
answer = chain.invoke(question)
print(answer)
输出:
CodeGeeX模型API的参数包括:
- prompt:用户输入的提示词
- max_tokens:模型输出最大tokens
- temperature:采样温度,控制输出的随机性
- top_p:另一种采样方法,模型考虑具有top_p概率质量tokens的结果
- stream:用于同步调用时,控制模型生成内容的返回方式,可以设置为false或true
示例二:
question = "请给一个chat模型非流式请求示例"
answer = chain.invoke(question)
print(answer)
输出:
流式请求示例:
curl --location 'http://{ip}/prod/model/api/infillingStreaming' \
--header 'Content-Type: application/json' \
--data '{
"model": "codegeex",
"prompt": "package problem1;\nclass Solution{\n public int \nremoveDuplicates(int[] nums) {\n int cnt = 1;\n for (int i = 1; \ni < nums.length; ++i)\n if (nums[i] != nums[i - 1]) {\n \n nums[cnt] = nums[i];\n ++cnt;\n }\n return \ncnt;\n }\\n}",
"max_tokens": 1024,
"temperature": 0.2,
"top_p": 0.95,
"stream": true
}'
对比pdf中的内容,很明显这个结果就是对的:
本文主要是 Milvus 向量数据实战总结。
• LLM 痛点以及解决方案
• RAG 是什么,为什么选用RAG。
• langchain
文档加载器,embedding model
, chat model
• 文档拆分的注意点,embedding model
, chat model
区别。
• chat 示例代码。
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-05-28
2024-08-13
2024-04-26
2024-08-21
2024-07-09
2024-06-13
2024-08-04
2024-04-11
2024-07-18
2024-07-01