微信扫码
添加专属顾问
我要投稿
AI技术在企业问答领域的突破性探索,从RAG到Agent的实践之旅。核心内容:1. RAG技术在企业问答场景的应用与挑战2. 知识库迭代搜索功能设计与优化方案3. Agent智能系统从问答到解决问题的转变与实现
在运维、IT、安全等多领域交织的部门,团队每天面对大量业务需求和重复性咨询。伴随大模型的发展,如何用AI优化这些场景是我主要研究方向?这篇文章分享了我从RAG到Agent的技术探索,试图为企业问答场景带来更高效的解决方案。
大模型兴起后,我看到了RAG(检索增强生成)的潜力,在dmeo阶段先解决咨询场景,公司级别的rag通过组织架构实施。
在咨询场景中通过结合知识库检索与生成能力,AI可以接管IM软件的对话,自动回答问题。过程中我为公司IM工具开发了一个HTTP接口,初步实现了AI问答接管。然而,由于文档未经整理,回答质量不稳定——要么冗长,要么过于简洁,甚至偶尔偏离事实。
为了提升效果,我设计了一个知识库迭代搜索功能,类似“DeepSearch”。它的核心在于通过生成新查询多轮检索逐步逼近答案,避免一次性返回不精准的结果。这让我意识到,RAG的关键在于知识库的质量与检索效率。
在RAG的实践中,我尝试了多种技术方案:
v1. 向量数据库
v2. 语料生成
v3. LoRA微调
v4. 分类分库模式
RAG解决了基础问答,但面对复杂需求时,AI仍显得被动。于是,我开始探索Agent——一个由大模型驱动的智能系统,能感知环境、规划任务、执行步骤并动态调整。LangChain的“Plan-and-Execute”框架给了我启发:Agent能根据用户问题拆解任务,迭代执行,并在结果反馈中优化路径。
我的实现逻辑包含四个核心环节:
例如,用户提问后,Agent检索文档,规划步骤,执行后返回答案,整个过程可观测、可调整。虽然目前执行逻辑偏“步进式”(走一步看一步),但已初步展现出从“被动问答”到“主动解决”的潜力。
为支持这一方案,我开发了一个UI客户端,集成:
知识库管理:维护文档结构与内容。
LLM与嵌入模型管理:自动发现Ollama模型。
MCP管理:未来计划支持SSE,提升实时性。
效果图已能展示Agent的执行流程,MCP模块还有更多扩展空间,比如集成多模态能力或更复杂的任务调度。
cli版本执行效果图:
RAG有效缓解了重复性咨询的效率瓶颈,而Agent则为复杂任务的自动化打开了新局面。在技术选型上,我主要依赖Grok-2作为核心模型,Grok-2它的推理能力和上下文理解让我快速验证了想法我并未系统评估成本,这成为后续优化的重点。单一大模型的“一刀切”方式虽然便捷,但在性能与资源平衡上仍有改进空间。
未来计划调整技术栈,构建更精细的分工协作体系:
还有其他很多功能比如权限管控、Endpoint API、用户交互、可观测性、鲁棒性上还待实施。在工具整合层面,我期望基于MCP(Model Context Protocol)协议。客户端采用stdio模型,确保本地交互的低延迟;远端则通过SSE(Server-Sent Events)实现实时调用。
https://modelcontextprotocol.io/quickstart/client
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-10-27
2024-09-04
2024-07-18
2024-05-05
2024-06-20
2024-06-13
2024-07-09
2024-07-09
2024-05-19
2024-07-07
2025-04-26
2025-04-25
2025-04-22
2025-04-22
2025-04-20
2025-04-19
2025-04-18
2025-04-16