AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


大模型RAG实战|对接Streamlit实现类似ChatGPT的流式输出
发布日期:2024-08-17 06:54:14 浏览次数: 1907 来源:大卫THINK


ThinkRAG大模型RAG实战系列文章带你深入探索使用LlamaIndex框架,构建本地大模型知识库问答系统。系列涵盖知识库管理、检索优化、模型本地部署等主题,通过代码与实例,讲解如何打造生产级系统,实现本地知识库的快速检索与智能问答


前文讨论了实现混合检索的方法。当我们把检索到的内容,发送给大模型生成回答时,希望能够快速得到响应


类似ChatGPT的流式(streaming)输出可以提升用户的体验。


特别是当我们要求大模型输出长文本时,例如:生成一篇2000字文章,用户无需等待生成完毕,即可开始阅读生成的内容。


现在的大语言模型(LLM)基本都支持流式输出。在LlamaIndex中实现方式很简单:我们在构建问答引擎(Query Engine)时,只需要明确设置参数streaming=True即可。


代码实例如下:


from llama_index.core.query_engine import RetrieverQueryEnginequery_engine = RetrieverQueryEngine.from_args(retriever=retriever,text_qa_template=text_qa_template,refine_template=refine_template,node_postprocessors=node_postprocessors,        response_mode="simple_summarize",verbose=True,streaming=True,)


这时,我们通过query_engine的query方法向大模型提问:“流程有哪三个特征”,该方法会返回一个response对象。


prompt = "流程有哪三个特征?"response = query_engine.query(prompt)
response_text = st.write_stream(response.response_gen)


我们response对象的reponse_gen方法,对接到Streamlit的write_stream方法,就可以接收大模型生成的流式输出,并同步在前端显示了。


该方法的返回值response_text,则是此次流式输出的全文,可以进一步处理或保存到对话记录中。


目前,ThinkRAG已采用流式输出。如果你运行ThinkRAG进行提问,可以看到系统的响应速度非常快,软件记录的时间为0.05秒。


效果如下:



如果,你的LlamaIndex应用不是通过Streamlit输出,而是在终端(console)输出,那么我们直接调用print_response_stream方法即可。


response.print_response_stream()


如果你自行开发软件前端,需要对流式输出进行手动处理,那么可以参考以下方法实现。


for text in response.response_gen:# do something with text as they arrive.pass


文中代码实例,可参考开源项目ThinkRAG


https://github.com/wzdavid/ThinkRAG


ThinkRAG是基于LlamaIndex框架,前端使用Streamlit开发的大模型本地知识库RAG系统,可在笔记本电脑上部署和离线运行。


53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询