微信扫码
与创始人交个朋友
我要投稿
概述:RAG(检索增强生成)是一种结合信息检索和生成模型的技术,允许用户将自己的数据与大型语言模型(LLM)结合,生成更精确和上下文相关的输出。这篇文章将简要介绍RAG的基本概念,并提供一个简化的教程,帮助初学者从零开始构建RAG应用程序。
在快速变化的AI领域中,特别是关于RAG,存在大量噪音和复杂性。供应商往往将其过度复杂化,试图将他们的工具、生态系统和愿景注入其中。本教程旨在帮助初学者消除这些干扰,专注于从头构建一个简单的RAG系统。
RAG的核心思想是通过检索工具将用户的自有数据添加到传递给大型语言模型的提示中,以此生成输出。相比单纯依赖预训练模型,这种方法带来了多项优势:
避免幻觉:通过在提示中包含事实信息,减少LLM产生幻觉的风险。
参考事实:允许用户在回应查询时参考真实数据,验证潜在问题。
利用未训练数据:可以使用LLM未曾训练过的数据。
一个RAG系统由以下几个组件构成:
文档集合(语料库)
用户输入
文档集合与用户输入之间的相似性度量
接收用户输入
执行相似性测量
对用户输入和检索到的文档进行后处理
初学者可以通过以下步骤从头构建一个RAG系统,并逐步学习复杂的变体。
首先,我们定义一个简单的文档集合:
corpus_of_documents = ["Take a leisurely walk in the park and enjoy the fresh air.","Visit a local museum and discover something new.","Attend a live music concert and feel the rhythm.","Go for a hike and admire the natural scenery.","Have a picnic with friends and share some laughs.","Explore a new cuisine by dining at an ethnic restaurant.","Take a yoga class and stretch your body and mind.","Join a local sports league and enjoy some friendly competition.","Attend a workshop or lecture on a topic you're interested in.","Visit an amusement park and ride the roller coasters."]
为了比较用户输入和文档集合的相似性,我们可以使用Jaccard相似度。Jaccard相似度是指两个集合的交集除以并集的大小。以下是一个简单的实现:
def jaccard_similarity(query, document):query = query.lower().split(" ")document = document.lower().split(" ")intersection = set(query).intersection(set(document))union = set(query).union(set(document))return len(intersection)/len(union)
接下来,我们定义一个函数来返回与用户输入最相似的文档:
def return_response(query, corpus):similarities = []for doc in corpus:similarity = jaccard_similarity(query, doc)similarities.append(similarity)return corpus_of_documents[similarities.index(max(similarities))]
我们可以通过以下代码运行一个简单的示例:
user_prompt = "What is a leisure activity that you like?"user_input = "I like to hike"response = return_response(user_input, corpus_of_documents)print(response)
输出将是:
'Go for a hike and admire the natural scenery.'
恭喜,您已经构建了一个基本的RAG应用程序!
虽然我们使用了简单的Jaccard相似度来学习,但它在处理语义上存在局限。为了进一步提升生成效果,我们可以引入大型语言模型(LLM)进行后处理。以下是一个集成开源LLM的简单示例:
import requests
import json
def query_llama(user_input, document):
# 假设你有一个运行的LLM服务,可以发送HTTP请求获取生成的文本
url = "http://localhost:8000/query"# LLM服务的URL
payload = {
"prompt": f"User input: {user_input}\nDocument: {document}\nResponse:",
"max_tokens": 50
}
headers = {"Content-Type": "application/json"}
response = requests.post(url, data=json.dumps(payload), headers=headers)
return response.json().get("text")
response_with_llm = query_llama(user_input, response)
print(response_with_llm)
以上代码示例演示了如何将检索到的文档与用户输入结合,使用LLM生成更准确的响应。
RAG为LLM提供了一个灵活且强大的框架,允许用户利用自有数据来增强生成效果。本教程介绍了如何从头开始构建一个简单的RAG系统,并如何逐步引入更复杂的组件,如LLM。今后,您可以通过更先进的相似性测量和检索技术进一步提升RAG系统的性能。
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-11-23
FastRAG半结构化RAG实现思路及OpenAI O1-long COT蒸馏路线思考
2024-11-23
检索增强生成(RAG):解密AI如何融合记忆与搜索
2024-11-23
如何提高RAG系统准确率?12大常见痛点及巧妙解!
2024-11-23
RAG 2.0性能提升:优化索引与召回机制的策略与实践
2024-11-22
RAG技术在实际应用中的挑战与解决方案
2024-11-22
从普通RAG到RAPTOR,10个最新的RAG框架
2024-11-22
如何使用 RAG 提高 LLM 成绩
2024-11-21
提升RAG性能的全攻略:优化检索增强生成系统的策略大揭秘 | 深度好文
2024-07-18
2024-05-05
2024-07-09
2024-05-19
2024-07-09
2024-06-20
2024-07-07
2024-07-07
2024-07-08
2024-07-09
2024-11-06
2024-11-06
2024-11-05
2024-11-04
2024-10-27
2024-10-25
2024-10-21
2024-10-21