AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


无缝融入,即刻智能[2]:MaxKB内置强大工作流引擎,编排AI工作流程,满足多样化业务需求
发布日期:2024-08-08 06:12:19 浏览次数: 1721



文章推荐:1.无缝融入,即刻智能[1]:MaxKB知识库问答系统,零编码嵌入第三方业务系统,定制专属智能方案,用户满意度飙升
2.RAG+AI工作流+Agent:LLM框架该如何选择,全面对比MaxKB、Dify、FastGPT、RagFlow等3.智胜未来:国内大模型+Agent应用案例精选,以及主流Agent框架开源项目推荐
4.未来已来:LLMops如何重塑AI-native新范式的运维格局[行业范式]、以及主流LLMops推荐
5.AI Agent技术的最新进展与改变世界的典型项目巡礼


无缝融入,即刻智能[2]:MaxKB内置强大工作流引擎,编排AI工作流程,满足多样化业务需求
1.简介

MaxKB(Max Knowledge Base)是一款基于 LLM 大语言模型的开源知识库问答系统,

  • GitHub:https://github.com/1Panel-dev/MaxKB


1.1 产品优势

  • 开箱即用:支持直接上传文档、自动爬取在线文档,支持文本自动拆分、向量化、RAG(检索增强生成),智能问答交互体验好;
  • 无缝嵌入:支持零编码快速嵌入到第三方业务系统,让已有系统快速拥有智能问答能力,提高用户满意度;
  • 灵活编排:内置强大的工作流引擎,支持编排 AI 工作流程,满足复杂业务场景下的需求;
  • 模型中立:支持对接各种大语言模型,包括本地私有大模型(Llama 3 / Qwen 2 等)、国内公共大模型(通义千问 / 智谱 AI / 百度千帆 / Kimi / DeepSeek 等)和国外公共大模型(OpenAI / Azure OpenAI / Gemini 等)。

2.AI编排工作流程

2.1 商业开源AI编排工作流优势

  1. 易用性和可访问性
  • 图形化界面:商业开源AI编排平台通常提供图形化界面,用户可以通过拖拽、配置等方式轻松构建和修改工作流程,无需深入编写复杂的代码。这大大降低了使用门槛,使得非技术背景的用户也能快速上手。
  • 低代码/无代码开发:相比LangChain的代码式处理,商业开源AI编排平台支持低代码/无代码开发模式,极大地简化了开发流程,提高了开发效率。
  • 灵活性和可扩展性
    • 模块化设计:商业开源AI编排平台通常采用模块化设计,用户可以根据需要自由组合不同的模块来实现自定义的AI应用。这种设计方式不仅提高了系统的灵活性,还使得系统易于扩展和维护。
    • 集成能力:商业开源AI编排平台通常支持多种AI模型和工具的集成,用户可以根据需要轻松集成不同的模型,实现更复杂的功能。相比之下,LangChain虽然也支持多种语言模型的集成,但在集成其他非语言模型工具方面可能较为繁琐。
  • 智能化和自动化
    • 智能决策:商业开源AI编排平台能够基于大数据和机器学习算法进行智能决策,自动优化工作流程,提高工作效率和准确性。这种智能化能力使得系统能够自动适应不同的业务场景和需求。
    • 自动化流程:商业开源AI编排平台能够自动化执行一系列任务,减少人工干预,降低人为错误的风险。同时,自动化流程还可以实时监控任务执行情况,提供预警和报警功能,确保工作流程的顺畅进行。
  • 可视化和监控
    • 工作流可视化:商业开源AI编排平台支持工作流的可视化展示,用户可以直观地看到工作流的执行情况和状态。这种可视化能力有助于用户更好地理解工作流程,发现潜在的问题并进行优化。
    • 实时监控和日志:商业开源AI编排平台提供实时监控和日志记录功能,用户可以实时查看工作流的执行情况、任务状态、输入输出等信息。这些信息对于问题的排查和系统的优化至关重要。
  • 社区支持和持续更新
    • 社区生态:商业开源AI编排平台通常拥有活跃的社区生态,用户可以在社区中交流经验、分享资源、解决问题。这种社区支持有助于用户更好地使用平台,提高开发效率。
    • 持续更新:商业开源AI编排平台通常会持续更新和迭代,引入新的功能和优化。这种持续更新的能力使得平台能够跟上技术发展的步伐,满足用户不断变化的需求。

    社区版限制5 个应用。

    2.2 快速实践

    2.2.1 省流版

    • 创建模板

    点击【创建应用】,输入应用名称,选择【高级编排】,点击【创建】

    • 相关功能
    • 默认创建界面
    • demo

    2.2.2 详细版

    点击【创建应用】,输入应用名称,选择【高级编排】,点击【创建】

    • 进入工作流编排页面,新创建的高级编排应用会默认生成简易配置原有的工作流,用可以根据自己的需求进行自定义编排,点击发布后才会生效。
    • 每个节点可以根据节点的用途进行重命名,双击节点名称即可重命名,注意一个应用中节点名称不能重复。
    • 画布上的节点必须在工作流程中,不能有流程外单独的节点,否则会校验失败。
    • 只有连线的后置节点才能引用前置节点的参数输出,可以直接在参数输出中复制参数,如果节点名称变更,需要重新复制参数,参数引用规则是{{节点名称.变量名称}}。

    添加组件说明

    点击右上角的【添加组件】,用户可以点击或拖拽节点到画布,进行工作流编排。以下是每个节点的用途说明:

    • 基本信息:应用的基本信息设置节点,如应用名称、描述、开场白等设置,每个应用只有一个基本信息节点,不能删除和复制。

    • 开始节点:工作流程的开始,每个应用只能有一个开始节点,不能删除和复制。

    • 知识库检索:关联知识库,检索与问题相关分段的节点,可以有多个,支持复制、删除。

    • AI对话:与AI大模型进行对话的节点,可以有多个,支持复制、删除。

    • 问题优化:AI对话的一种,设定了默认的角色和场景,用户也可以自行修改。

    • 指定回复:支持指定输出内容的节点。

    • 判断器:根据不同条件执行不同的节点。

    • 开始

    节点说明:工作流的开始节点,不能删除和复制,问答页面输入的问题会作为该节点的输出参数 {question},后续节点如有引用可以复制输出参数或选择变量:开始节点 -〉用户问题。

    • 知识库检索

    节点说明:如果应用需要关联知识库,则需要在编排中添加知识库检索节点,选择知识库、设置检索参数、选择检索的问题。

    工作流中的后续节点可以使用该节点的参数输出,以下是参数说明:

    • 检索结果的分段列表 {paragraph_list}: 数组类型,指根据检索问题、检索参数进行检索后命中的分段列表,包含了分段的所有属性;

    • 满足直接回答的分段列表 {is_hit_handling_method_list}: 数组类型,指根据检索问题、检索参数进行检索后命中的分段中满足直接回答的所有分段列表,包含了分段的所有属性;

    • 检索结果 {data}: 字符串类型,指根据检索问题、检索参数进行检索后命中的分段内容;

    • 满足直接回答的分段列表 {directly_return}: 字符串类型,指根据检索问题、检索参数进行检索后命中的分段中满足直接回答的所有分段内容。

    • AI 对话

    节点说明:如果应用需要与 AI 大模型进行对话,则需要在编排中添加 AI 对话节点,选择 AI 模型,设置提示词,提示词可以引用前置节点的参数输出。如:可以引用前置知识库检索的检索结果和开始节点的问题变量。

    工作流中的后续节点可以使用该节点的参数输出,以下是参数说明:
    AI 回答内容 {answer}: AI 模型返回的内容。

    • 指定回复

    节点说明:支持指定输出文本内容,如没有在知识库查询到相关内容时,可以指定回复一段文案;支持指定输出变量,如在知识库查询到的相关内容满足直接回答的,可以直接选择该变量,系统会自动转化成字符串进行输出。

    工作流中的后续节点可以使用该节点的参数输出,以下是参数说明:
    内容 {answer}: 指定回复输出的内容。

    • 判断器

    节点说明:根据不同的条件判断,执行不同的分支,每个分支一个输出,每个分支必须有后置执行节点。

    工作流中的后续节点可以使用该节点的参数输出,以下是参数说明:
    分支名称 {branch_name}: 根据条件判断执行分支的分支名称。

    2.3 使用场景举例

    2.3.1 对用户问题进行问题分类,按照类别检索不同的知识库及回复不同的内容

    使用场景如下:给应用添加一个问题分类,当用户提问后,先对问题进行分类,按照问题类别查询不同的知识库。
    要求如下:

    1. 如果分类结果是打招呼的,则指定回复内容;
    2. 如果分类结果是售前问题咨询的,则查询售前问题知识库;
    3. 如果分类结果是售后问题咨询的,则查询售后问题知识库;
    4. 如果分类结果是其他咨询的,则直接问 AI 模型。
      实现以上场景的工作流编排如下:

    2.3.2 对用户问题增加敏感词检索,若存在敏感词则指定回复内容

    需求:当用户提出问题后,先判断用户的问题是否存在敏感词,如果存在敏感词,就指定回复的内容,如果不存在敏感词就继续检索知识库。
    要想实现该需求,需要执行以下几步:

    1. 在知识库中维护一个敏感词知识库,把敏感词添加到问题中,然后关联一个指定敏感词的分段;
    1. 在开始节点后,增加一个知识库检索节点命名为:敏感词检索,选择知识库:敏感词知识库;
    2. 在知识库检索节点后,增加一个判断器,判断敏感词检索的检索结果是否存在敏感词,检索结果不为空,则说明存在敏感词,否则则不存在敏感词可以继续检索知识库,进行后续流程。

    2.3 调试

    点击【调试】后,会先校验流程是否合规,校验通过后可以在当前页面进行对话测试。

    2.4 执行详情

    在调试对话框中进行提问,AI 回答完成后,会显示【执行详情】,点击【执行详情】后,弹出执行详情对话框,用户可以查看每个流程节点的执行状态、时长和详细的内容。

    2.5 保存

    当前画布系统会每分钟进行自动保存到本地,需要用户在校验通过后手动点击发布才会将修改配置同步到线上。

    2.6 发布

    高级编排应用的所有修改只有点击【发布】后,才会在问答页面生效。 点击发布时会校验当前工作流是否符合规则,符合规则的发布成功,不符合规则的则不会进行发布。

    3. 应用概览

    [1]

    在应用列表页面,点击应用的面板,进入到应用概览页面。 在概览页面可以进行演示、启用 / 禁用 / 重新生成公开访问链接、嵌入第三方、访问限制设置和 API Key 管理操作。

    3.1 公开访问链接

    用户点击演示或复制公开访问链接至浏览器进入问答页面。

    公开访问链接支持开关设置和重新生成。
    关闭 / 重新生成公开访问链接时,提示:抱歉,当前正在维护,无法提供服务,请稍后再试!

    3.2 嵌入第三方

    MaxKB 应用支持零编码嵌入到企业的第三方系统。
    当应用设置完成后,在应用概览页面,点击【嵌入第三方】,用户可以复制全屏模式代码或浮窗模式代码嵌入到第三方系统中,嵌入完成后便可在第三方系统中进行用户问答。

    3.3 访问限制

    MaxKB 支持对应用设置每个客户端提问次数限制和嵌入第三方白名单防盗链设置,并且支持设置用户端是否显示知识来源。

    3.4 API 访问凭据

    二开时调用当前应用的 API 文档和 API Key 管理,复制凭证地址可以打开 API 文档,点击 【API Key 】,打开 API Key 的管理对话框。
    支持创建、启用 / 禁用、删除 API Key。

    3.5 监控统计

    为了让管理者更加了解应用的使用情况,系统支持统计应用的用户数、提问数、Tokens 数和用户满意度。

    4. 对话日志¶

    在对话日志钟记录了所有用户会话中的问答详情,包括用户对 AI 回答的反馈信息。

    • 维护人员可以通过查看对话日志和用户反馈来修正答案。
    • 支持查询过去 7 天、30 天、90 天、过去半年的对话日志。
    • 支持按摘要和用户反馈查询对话日志。
    • 日志详情

    日志详情为每个用户真实的问答场景,问答中用户的反馈只能查看不能修改。

    • 引用分段

    支持查看 AI 回答时具体引用知识库的分段内容。

    • 修正答案

    维护人员可以根据用户提问和 AI 回答以及用户的反馈来标注答案完善分段内容。

    更多优质内容请关注公号:汀丶人工智能;会提供一些相关的资源和优质文章,免费获取阅读。

    更多优质内容请关注CSDN:汀丶人工智能;会提供一些相关的资源和优质文章,免费获取阅读。

    文章推荐:1.无缝融入,即刻智能[1]:MaxKB知识库问答系统,零编码嵌入第三方业务系统,定制专属智能方案,用户满意度飙升
    2.RAG+AI工作流+Agent:LLM框架该如何选择,全面对比MaxKB、Dify、FastGPT、RagFlow等3.智胜未来:国内大模型+Agent应用案例精选,以及主流Agent框架开源项目推荐
    4.未来已来:LLMops如何重塑AI-native新范式的运维格局[行业范式]、以及主流LLMops推荐
    5.AI Agent技术的最新进展与改变世界的典型项目巡礼



    53AI,企业落地应用大模型首选服务商

    产品:大模型应用平台+智能体定制开发+落地咨询服务

    承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

    联系我们

    售前咨询
    186 6662 7370
    预约演示
    185 8882 0121

    微信扫码

    与创始人交个朋友

    回到顶部

     
    扫码咨询