AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


利用LLM面向系统工程领域设计、实现和云端部署知识库智能助理的实践
发布日期:2024-08-27 14:08:02 浏览次数: 1620


一、背景介绍


        AI技术在飞速发展,大语言模型(LLM)如GPT-4o、Qwen2、Llama3.1等,已经在各行各业中崭露头角。在面向模型化系统工程(MBSE,Model-Based Systems Engineering)领域的应用中,AI技术也正在星火燎原,现阶段结合我的工作需要和实践,一款基于LLM的系统工程实践知识智能助理对我来说更重要,一方面如何能更深入地、整整齐齐得梳理自己的知识体系;一方面如何在合适的场景能与志趣相投的同仁相互深入交流分享和切磋是个“看山是山、看水是水“的迫切想法。正是有了这样的一念,促使我一如连夜登华山迫切一睹第一缕阳光那般,忘了自己是知天命的年纪,不畏从AI小白开始学习,敏捷跬步,设计和开发一套基于开源LLM的、能在云端部署和运行的、面向系统工程领域的知识问答智能助手,以助力我巩固专业知识、开拓新思维、吸纳黑科技,好好学习,报效家人和祖国!

(图片基于AI免费生成,保留我的版权)

二、需求分析


        在构建这套系统工程知识库智能助理系统时,我明确了一些核心需求,这些需求不仅考虑了MBSE的行业特性,还结合了我个人工作环境的限制条件:

1、智能助手的系统工程场景适应性

      系统工程领域充满了各种行业标准、规范、最佳实践和工具。我的目标是开发一个基于大语言模型的系统工程知识库智能助手,它不仅能够理解这些复杂的系统工程概念,还能在具体的工程实践活动中,提供实时、准确的支持。例如,当我们在进行系统架构设计时,助手能够参考既有的行业标准,如ISO 26262(汽车功能安全标准)、ARP 4754A(航空系统开发标准)等,提供相关建议,也能告知我的系统工程活动还存在什么可以改进的地方甚至交付的系统工程工件(artifact)中存在的缺陷,所以,先进行这个目标系统的愿景描述以及SoI识别和建立。

2、基于云端的计算资源优化和部署:

       由于个人电脑资源配置较低,我希望利用云平台实现算力资源的复用,确保大语言模型的训练和推理过程能够顺利进行。云端部署不仅能够提升模型的计算性能,还能支持多用户的并发访问。为此,通过多方比较,主要是性价比,选择国内某大厂的云平台购买了用于学习用途(当然配置也很“喜人“的轻量级应用服务器),从Linux面板、Docker及容器、镜像文件等开始安装、配置,得益于工业化的平台体验,这些安装配置并不会花费太多时间并且是高可维护性的。

      有了上述的PAAS,可以安心部署开源的LLM知识问答开发平台了,对LLM知识问答开发平台的选择,主要是在其成熟度和稳定性以及在Github上的小星星都很不错,当然最主要的原因目前主流的平台表现出的能力所揭示的那样:“it is an open-source LLM app development platform. it's intuitive interface combines AI workflow, RAG pipeline, agent capabilities, model management, observability features and more, letting you quickly go from prototype to production.“
        是的,RAG技术很重要,甚至知识图谱更重要。

3、知识库素材梳理
      所有基于开源或闭源LLM的知识库的根都在数据、信息、知识,系统工程本身是复杂的,数据浩如烟海,囊括从体系工程、需求工程、架构建模、EE架构及开发、仿真验证、ELM、数据科学、循规(包括专业标准和行业标准等),所以这是一个持续且不断迭代的积累过程,需要在底层架构用心设计。


三、设计及实现基于开源LLM的系统工程知识库AI助理


      为了解决上述需求,我决定采用开源的LLM和开源的LLM知识问答框架来设计和开发这套智能助理系统。以下是详细设计与实现的摘要描述。

1. 大模型选型与私有化部署

      首先,我需要选择一个适合系统工程领域应用的大语言模型。结合MBSE的需求,我倾向于选择如GPT-4o、Qwen2、Mistral 等具备强大语言理解和生成能力的开源模型。为了满足私有化部署的要求,我选择使用如前所述的开源框架,进行模型的本地化部署。具体操作包括:

  • 模型训练与调优:根据系统工程领域的特殊性,我们可以通过迁移学习的方式,将大模型在系统工程领域的相关数据集上进行微调。这些数据集可以包括标准文档、项目案例、技术报告等,这一步对我具有一定的难度,目前正在调试中,选择了LLaMA Factory。

  • 私有化部署:使用容器化技术(如Docker)将模型部署在本地机上或上述提到云平台上,如果是非商业的、非企业版权的知识数据建议上云依靠云平台的算力以确保所有数据和模型在内部环境中顺畅分析、矢量化和结构化运行。对于企业级别的知识库,则可以借助如Kubernetes等工具,进行大规模分布式部署,以满足不同用户的并发需求。

2. 系统工程知识库的构建与管理

        知识库是整个智能助理系统的核心,其质量直接决定了智能助理的实用性。我计划构建一个覆盖广泛、结构化的知识库:

  • 知识的分类与整理:根据系统工程的不同阶段(需求分析、系统设计、验证与验证等),将知识库划分为多个模块。每个模块下再细分为不同的领域,如功能安全、系统架构设计、仿真验证等。

  • 知识库的持续更新与扩展:知识库需要不断扩展和更新,以跟上行业的发展趋势。我正在业界寻找一个成熟的且自动化的知识获取与更新机制,定期爬取行业文献、标准更新内容,并自动添加到知识库中,如果你恰好知道,请不吝推荐给我。

3. 智能问答系统的开发与集成

       在问答系统的开发上,我正在尝试采用开源框架为基础,结合RAG(检索增强生成)技术,实现高效的问答功能:

  • 问答模块的设计:问答模块需要能够处理系统工程领域的复杂问题。例如,当我询问如何设计一个符合CATIA Mgaicgrid方法或者CESAMES方法标准的系统架构时,系统能够检索相关标准文档,并生成详细的操作建议。

  • 与知识库的集成:问答系统将与知识库紧密集成,确保回答的准确性和相关性。我们可以利用向量检索技术,将用户的查询与知识库中的内容进行相似度匹配,从而找出最相关的答案。


四、总结与展望


       通过学习和实践,我正在努力构建出一套强大、自用的系统工程知识问答智能助理小系统。这套小系统不仅能够满足我个人工作中的实际需求,还可以为系统工程领域的专家提供些许参考和启发。

      未来,我还希望利用工余闲暇时间进一步优化系统的性能和体验,尤其是在graphRAG方面。同时,我也计划不断丰富知识库的内容,使之成为提升我专业能力和积累经验的重要工具。

      在AI技术日新月异的今天,我相信这套基于大语言模型的系统工程知识库智能助理系统,将为默识来更多的Work-life balance体验。

Long March

2024.立秋


53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询