微信扫码
与创始人交个朋友
我要投稿
我的公众号文章中有很多篇幅都是用来介绍优化的,要是把优化问题仅认为是一个费用问题或准确率问题,那就把优化问题过于简单化。繁杂的提示词肯定让你崩溃过,尤其是前面用的好好的,突然有一天就崩了,提示词不听话了。哈哈!不管你是跑在Agent里还是自动化流程里,或者是元宝、扣子、Dify等各种框架里,优化问题都是个不可忽视的大问题。
这么说吧,对Prompt进行优化意味着响应速度更快,客户体验更好。你能得到准确度更高,鲁棒性更强的prompt,能让你的AI程序更稳定,生成内容更精准。
上一篇,我介绍了用微软最新最强的GraphRAG把一个PDF文件自动生成可用于优化的训练数据集和Prompt。这是一个范例,有很好的泛化作用,您可以对某种方案、技术手册或者某种技术教程等等PDF格式的文件,自动生成更大的数据集,比如300-500条或者把几个PDF文本整合到一个可用于优化和训练的数据集中。
图片由xiumaodalle生成
01
优化验证大致思路
上一篇我只生成了15个和GraphRAG论文有关的问题和答案对,后面异步主函数下的数据集生成模块把这些内容上篇文章图中的内容保存到一个数据集中prompt_optimization_dataset.yaml。xiumao代码运行截图1是这个数据集中的部分内容。
async def main():
entities, description_embedding_store, jina_embedder = process_and_embed()
context_builder = LocalSearchMixedContext(
entities=entities,
entity_text_embeddings=description_embedding_store,
embedding_vectorstore_key=EntityVectorStoreKey.ID,
text_embedder=jina_embedder,
)
local_context_params = {
"top_k_mapped_entities": 5,
"include_entity_rank": True,
"embedding_vectorstore_key": EntityVectorStoreKey.ID,
"max_tokens": 4000,
}
search_engine = LocalSearch(
llm=DeepSeekClientWrapper(deepseek_client),
context_builder=context_builder,
llm_params={"max_tokens": 1000, "temperature": 0.0},
context_builder_params=local_context_params,
response_type="multiple paragraphs",
)
initial_summary = await run_rag_query(search_engine, "总结这篇论文的主要观点,包括研究方法、实验流程和主要结果")
if initial_summary:
dataset = await generate_and_answer_questions(deepseek_client, search_engine, initial_summary)
with open('prompt_optimization_dataset.yaml', 'w', encoding='utf-8') as yaml_file:
yaml.dump(dataset, yaml_file, allow_unicode=True, sort_keys=False)
print("数据集已保存为 prompt_optimization_dataset.yaml")
if __name__ == "__main__":
import nest_asyncio
nest_asyncio.apply()
asyncio.run(main())
xiumao代码运行截图1
然后再特意为这个简易优化程序(醋)写(包)了一个(盘)简单的RAG检索系统(饺子),检索代码不超过70行,比较数据集优化前后答案的变化。
def main():
# 创建文档列表
documents = [{'content': f"Question: {item['question']}\nAnswer: {item['answer']}"} for item in dataset]
# 创建检索器
retriever = SimpleRetriever(documents)
# 加载数据集
dataset = load_dataset('prompt_optimization_dataset.yaml')
# 执行查询
question = "多文档问答任务中,模型是如何具体评估其应用能力的?"
retrieved_docs = retriever.retrieve(question, top_k=3)
answer = generator.generate(question, retrieved_docs)
print("问题:", question)
print("答案:", answer)
if __name__ == "__main__":
main()
用这个简单的RAG去问个问题
xiumao代码运行截图2
02
开始优化
对数据集优化的意义在于:你能够整理和规范数据集中的内容,并用于生产系统的部署,如果需要的话,或者作为问答系统的知识库,总之你优化就对了。用最简单的Python基础语句,让Deepseek作为模型批量总结、整理数据集中的字段成你希望的字数和格式,别说控制不了模型生成字数,用好基础语句(写个惩罚函数)连标点符号都能控制,就说你想要什么吧。所以,大道至简,越是基础的知识越有力量,越不容易出错。最后整理完的内容保存到refined_dataset.yaml中。
import yaml
from openai import OpenAI
# 配置 DeepSeek 语言模型
class DeepSeekLM:
def __init__(self, api_key, base_url, model):
self.client = OpenAI(api_key=api_key, base_url=base_url)
self.model = model
self.kwargs = {
"temperature": 0.7,
"max_tokens": 200,
"top_p": 1,
"frequency_penalty": 0,
"presence_penalty": 0
}
def __call__(self, prompt, **kwargs):
merged_kwargs = {**self.kwargs, **kwargs}
response = self.client.chat.completions.create(
model=self.model,
messages=[
{"role": "system", "content": "你是一个答案总结助手。请将给定的答案简明扼要地总结为120-180个字符。"},
{"role": "user", "content": prompt}
],
**merged_kwargs
)
return response.choices[0].message.content
# 加载数据集
print("正在加载数据集...")
with open('prompt_optimization_dataset.yaml', 'r', encoding='utf-8') as file:
dataset = yaml.safe_load(file)
print(f"成功加载数据集,共 {len(dataset)} 条记录")
xiumao代码运行截图3
03
验证优化结果
再然后,数据集结果已保存到refined_dataset.yaml,再去用这个yaml文件替换xiumao代码运行截图2那个简单RAG中的优化前的数据集prompt_optimization_dataset.yaml,用同样的问题提问,结果如下:
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-11-24
RAGChecker:显著超越RAGAS,一个精细化评估和诊断 RAG 系统的创新框架
2024-11-23
FastRAG半结构化RAG实现思路及OpenAI O1-long COT蒸馏路线思考
2024-11-23
检索增强生成(RAG):解密AI如何融合记忆与搜索
2024-11-23
如何提高RAG系统准确率?12大常见痛点及巧妙解!
2024-11-23
RAG 2.0性能提升:优化索引与召回机制的策略与实践
2024-11-22
RAG技术在实际应用中的挑战与解决方案
2024-11-22
从普通RAG到RAPTOR,10个最新的RAG框架
2024-11-22
如何使用 RAG 提高 LLM 成绩
2024-07-18
2024-05-05
2024-07-09
2024-05-19
2024-07-09
2024-06-20
2024-07-07
2024-07-07
2024-07-08
2024-07-09
2024-11-06
2024-11-06
2024-11-05
2024-11-04
2024-10-27
2024-10-25
2024-10-21
2024-10-21