微信扫码
与创始人交个朋友
我要投稿
# 加载必要的库和环境变量
import openai
import os
from math import *
from icecream import ic
import json
from pdfminer.high_level import extract_pages
from pdfminer.layout import LTTextContainer
from elasticsearch7 import Elasticsearch, helpers
from nltk.stem import PorterStemmer
from nltk.tokenize import word_tokenize
from nltk.corpus import stopwords
import nltk
import re
import warnings
# 加载 .env 文件
from dotenv import load_dotenv, find_dotenv
_ = load_dotenv(find_dotenv())
# 屏蔽一些警告
warnings.simplefilter("ignore")
# 初始化 OpenAI 和 Elasticsearch 配置
openai.api_key = os.getenv('OPENAI_API_KEY')
openai.api_base = os.getenv('OPENAI_API_URL')
model = os.getenv('MODEL')
ES_HOSTS = os.getenv('ES_HOSTS')
ES_USERNAME = os.getenv('ES_USERNAME')
ES_PASSWORD = os.getenv('ES_PASSWORD')
def extract_text_from_pdf(filename,page_numbers=None,min_line_length=1):
'''
从 PDF 文件中提取文本。
:param filename: PDF 文件名
:param page_numbers: 需要提取文本的页码列表,可选
:param min_line_length: 最小行长度,用于过滤短行,可选
:return: 提取的文本段落列表
'''
'''从 PDF 文件中(按指定页码)提取文字'''
paragraphs = []
buffer = ''
full_text = ''
# 提取全部文本
for i, page_layout in enumerate(extract_pages(filename)):
# 如果指定了页码范围,跳过范围外的页
if page_numbers is not None and i not in page_numbers:
continue
for element in page_layout:
if isinstance(element, LTTextContainer):
full_text += element.get_text() + '\n'
# 按空行分隔,将文本重新组织成段落
lines = full_text.split('\n')
for text in lines:
if len(text) >= min_line_length:
buffer += (' '+text) if not text.endswith('-') else text.strip('-')
elif buffer:
paragraphs.append(buffer)
buffer = ''
if buffer:
paragraphs.append(buffer)
return paragraphs
def fenchi_init():
'''
初始化自然语言处理工具,下载必要的资源。
'''
nltk.download('punkt') # 英文切词、词根、切句等方法
nltk.download('stopwords') # 英文停用词库
def to_keywords(input_string):
'''
将输入字符串转换为关键词列表。
:param input_string: 输入的字符串
:return: 关键词字符串
'''
'''(英文)文本只保留关键字'''
# 使用正则表达式替换所有非字母数字的字符为空格
no_symbols = re.sub(r'[^a-zA-Z0-9\s]', ' ', input_string)
word_tokens = word_tokenize(no_symbols)
stop_words = set(stopwords.words('english'))
ps = PorterStemmer()
# 去停用词,取词根
filtered_sentence = [ps.stem(w) for w in word_tokens if not w.lower() in stop_words]
return ' '.join(filtered_sentence)
def init_index(paragraphs):
'''
初始化 Elasticsearch 索引,将文本段落索引到 Elasticsearch 中。
:param paragraphs: 文本段落列表
'''
# 1. 创建Elasticsearch连接
es = Elasticsearch(
hosts=[ ES_HOSTS ],# 服务地址与端口
http_auth=(ES_USERNAME, ES_PASSWORD), # 用户名,密码
)
# 2. 定义索引名称
index_name = "string_index"
# 3. 如果索引已存在,删除它(仅供演示,实际应用时不需要这步)
if es.indices.exists(index=index_name):
es.indices.delete(index=index_name)
# 4. 创建索引
es.indices.create(index=index_name)
# 5. 灌库指令
actions = [
{
"_index": index_name,
"_source": {
"keywords": to_keywords(para),
"text": para
}
}
for para in paragraphs
]
# 6. 文本灌库
helpers.bulk(es, actions)
def search(query_string, top_n=3):
'''
在 Elasticsearch 中搜索匹配的文本段落。
:param query_string: 搜索查询字符串
:param top_n: 返回的匹配段落数量
:return: 匹配的文本段落列表
'''
# 1. 创建Elasticsearch连接
es = Elasticsearch(
hosts=[ ES_HOSTS ],# 服务地址与端口
http_auth=(ES_USERNAME, ES_PASSWORD), # 用户名,密码
)
# ES 的查询语言
search_query = {
"match": {
"keywords": to_keywords(query_string)
}
}
index_name = "string_index"
res = es.search(index=index_name, query=search_query, size=top_n)
return [hit["_source"]["text"] for hit in res["hits"]["hits"]]
def get_completion(prompt, model=model):
'''
使用 OpenAI 完成聊天对话。
:param prompt: 聊天的提示信息
:param model: 使用的 OpenAI 模型
:return: 聊天的回复
'''
messages = [{"role": "user", "content": prompt}]
response = openai.ChatCompletion.create(
model=model,
messages=messages,
temperature=0,# 模型输出的随机性,0 表示随机性最小
)
return response.choices[0].message["content"]
def build_prompt(prompt_template, **kwargs):
'''
根据模板和参数构建提示信息。
:param prompt_template: 提示信息的模板字符串
:param kwargs: 用于替换模板中的变量的键值对
:return: 构建后的提示信息
'''
'''将 Prompt 模板赋值'''
prompt = prompt_template
for k, v in kwargs.items():
if isinstance(v,str):
val = v
elif isinstance(v, list) and all(isinstance(elem, str) for elem in v):
val = '\n'.join(v)
else:
val = str(v)
prompt = prompt.replace(f"__{k.upper()}__",val)
return prompt
def test_promopt():
'''
测试构建和使用提示信息的函数。
'''
prompt_template = """
你是一个问答机器人。
你的任务是根据下述给定的已知信息回答用户问题。
确保你的回复完全依据下述已知信息。不要编造答案。
如果下述已知信息不足以回答用户的问题,请直接回复"我无法回答您的问题"。
已知信息:
__INFO__
用户问:
__QUERY__
请用中文回答用户问题。
"""
user_query="how many parameters does llama 2 have?"
# 1. 检索
search_results = search(user_query,2)
# 2. 构建 Prompt
prompt = build_prompt(prompt_template, info=search_results, query=user_query)
print("===Prompt===")
print(prompt)
# 3. 调用 LLM
response = get_completion(prompt)
#response = get_completion_ernie(prompt)
print("===回复===")
print(response)
if __name__ == '__main__':
test_promopt()
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-12-22
2个简单技巧把 RAG 检索准确率从 50% 提高到 95 %
2024-12-22
Browser-Use + LightRAG Agent:可使用 LLM 抓取 99% 的网站
2024-12-22
Dynamic RAG实战:解决知识增强中的动态更新挑战
2024-12-21
构建行业RAG应用系统:金融、财务、保险、医疗等行业该怎么做?
2024-12-21
构建基于多智能体RAG的企业的AI应用程序
2024-12-21
必读!RAG好用的3种Router
2024-12-20
GraphRAG0.5.0:从安装到高效应用的全方位指南
2024-12-20
大模型之深入探索RAG流程
2024-07-18
2024-05-05
2024-06-20
2024-09-04
2024-05-19
2024-07-09
2024-07-09
2024-07-07
2024-07-07
2024-07-08
2024-12-21
2024-12-14
2024-12-01
2024-11-27
2024-11-25
2024-11-06
2024-11-06
2024-11-05