微信扫码
与创始人交个朋友
我要投稿
下面的内容主要分为:
TorchV Bot产品介绍; 如何试用? 附录1:RAG简要说明; 附录2:TorchV Bot操作说明
TorchV Bot是一款基于大语言模型(Large Language Model,后文简称LLM)和检索增强生成(Retrieval-augmented generation,后文简称RAG)技术的人工智能问答机器人,属于TorchV最主要的三款产品(Bot、Assistant和Analyst)中一款。
在使用方面,TorchV Bot的产品价值最简单总结就是:将您业务中已有的各类文档扔进去,就可以快速形成知识库和问答系统,可以作为对外的客服机器人使用,也可以作为对内的业务助理使用。
TorchV Bot是基于TorchV RAG中间件系统的应用,从整体系统架构来看,具体如下:
在整套架构中,本文提到的TorchV Bot仅仅属于产品层的其中一个产品,下面我们从下往上逐层描述:
TorchV Bot是基于LLM和RAG的,为了方便更多朋友进一步了解,这里再介绍一下RAG,如果您对RAG已经了解,可以直接跳过1.2章节。
RAG(Retrieval-Augmented Generation,检索增强生成)是为大语言模型 (LLMs) 提供了从数据源检索的信息,以此为基础生成回答。简而言之,RAG结合了搜索技术和大语言模型的提示功能,即模型根据搜索算法找到的信息作为上下文来回答查询问题。无论是查询还是检索的上下文,都会被整合到发给大语言模型的提示中,然后让大语言模型根据召回的事实内容进行润色输出。
在2023年,大语言模型逐渐火热之后,基于RAG架构的大语言模型系统成为最受欢迎的技术。许多产品几乎全依赖RAG架构,这包括结合网络搜索引擎和大语言模型的问答服务,以及数以百计的数据交互应用程序。
RAG结合大语言模型使用,可以有效解决大语言模型本身存在的三个主要问题:
关于RAG的简要介绍,特别是技术实现,可以参看附录1.
除了RAG,架构中还是用了多个中间件,如幂等分类器(IC)、执行器(Actuator)和连接器(Connector),下面简要叙述它们的作用:
TorchV Bot第一个特点是开箱即用,这里其实有两层意思:
具备开通即可使用的便捷,以及拥有无需维护就能达到生产应用级别的能力,注定会让TorchV Bot适合于越来越多的行业应用场景。
对于企业应用,即使是内部使用,一些敏感文件内容依然需要保密,如销售报表,最好只能让总经理、销售本人和财务人员看到。如果直接放在LLM中,那么实习生也能对“我要看一下XX部门今年的销售数据”等问题进行提问,并获得答案。而采用TorchV Bot则可以通过建立受保护的文件夹来有效设置访问权限,当然该特性目前仅在企业版中提供。
这其实是基本条件,TorchV Bot在这些方面已经获得现有客户的认可。
我们没有做任何标准评测,而且以后应该也不会去参加各种评测。因为我们发现,在我们前面接触的行业客户中,他们的提问我们都很难看懂,更加无法理解输出的答案是否优秀。目前的反馈都是基于约9个类型行业的真实客户使用反馈,客户试用之后的签约是最好的证明,特别是通过PLG来的客户。
针对数据敏感的服务,如涉及到企业经营数据、合同、工艺流程等知识内容,都会有全量私有化部署的需求,既可以断开外网在企业内部使用。TorchV Bot支持全量部署,包括国产大语言模型(会配合客户申请Model的商用授权),全套RAG架构,以及应用。
TorchV Bot从标准版开始就支持API开放,客户可以使用API与自己的原有业务对接,包括小程序、HTML、APP、大屏数字人和具身机器人等。我们也正在开发一键嵌入,估计马上就可以实现让客户使用极少的几行代码将TorchV Bot应用嵌入集成到原系统中。
我们的系统后台配备有各类参数调整的界面,可以让管理人员简便调整参数。如在专业性较强的应用场景,可以将alpha参数偏向于BM25;而在通用场景下,让KNN的权重更大。另外对于大家关心的大模型幻觉问题,我们可以设置让系统如何回答——当召回得分的最大分数低于设定的阈值的时候,选择让LLM兜底回答,还是回复“据已有知识,暂时无法回答您的问题!”
已经有部分朋友获得了试用地址和账号,本次试用本来是准备放在官网发布的,但是无奈,我们的研发人员都在忙着TorchV Bot试用系统的上线,而我,来不及将官网(https://www.torchv.com,2024-01-25,也许过几天会上线)开发完成。
所以,本次就先采用邮件吧。
目前只接受企业用户试用,需要您填写一些信息,必要信息如下:
邮箱:用来接收地址和账号 如何称呼您: 所服务的公司: 您的职位:
当然,如果您可以告诉我们您的使用场景,我们将更加感激!
对了,可以发送到yuanwai@mengjia.net
另外,也可以直接加我微信(lxdhdgss)联系我。
您可以查看附录2 了解TorchV Bot的使用说明。
目前TorchV Bot还处于Beta 1阶段,新版的UI设计稿还在路上,预计Beta 2版本会换装,目前系统应该还存在一些未发现的问题,也希望您在试用过程中不吝指出,谢谢您!
新的创新 = 新技术+业务需求,我们期望与各行业大佬交流AI如何帮助企业提升业务。
我们最希望的是可以帮助您:
实现商业收入提升,增加收入永远是第一位的; 极大降低您的业务成本,让利润增加,节流也很重要; 共同开展创新业务,一起实现行业应用创新,尝试以前不能实现的想法。
数据提取
分块(Chunking)
向量化(Embedding):这是将文本、图像、音频和视频等转化为向量矩阵的过程,也就是变成计算机可以理解的格式,embedding模型的好坏会直接影响到后面检索的质量,特别是相关度。一般我们现在常用的embedding模型有这些:
检索环节技术含量很高,检索优化一般分为下面五部分工作:
元数据过滤:当我们把索引分成许多chunks的时候,检索效率会成为问题。这时候,如果可以通过元数据先进行过滤,就会大大提升效率和相关度。比如,我们问“帮我整理一下XX部门今年5月份的所有合同中,包含XX设备采购的合同有哪些?”。这时候,如果有元数据,我们就可以去搜索“XX部门+2023年5月”的相关数据,检索量一下子就可能变成了全局的万分之一;
图关系检索:如果可以将很多实体变成node,把它们之间的关系变成relation,就可以利用知识之间的关系做更准确的回答。特别是针对一些多跳问题,利用图数据索引会让检索的相关度变得更高;
检索技术:前面说的是一些前置的预处理的方法,检索的主要方式还是这几种:
重排序(ReRank):很多时候我们的检索结果并不理想,原因是chunks在系统内数量很多,系统为了检索效率会牺牲一部分的精确度,所以一次检索的结果可能就会在相关度上面没有那么理想。这时候我们需要有一些策略来对检索的结果做重排序,比如使用Bge-Rerank模型重排序,得到更符合我们业务场景的排序。因为在这一步之后,我们就会把结果送给LLM进行最终处理了,所以这一部分的结果很重要。
查询轮换:这是查询检索的一种方式,一般会有几种方式:
这一环最重要的就是Prompt工程,在Prompt里有很多决定最终输出质量的因素:
以上就是关于RAG的技术解释了。
使用我们回复邮件里面的地址和账号密码即可登录。
让我们先排除各种理论知识,快速上手。在您登录成功后,请先点击“知识管理”->“知识维护”,您将看到如下界面。
也许您的账号登录之后看到的内容会有一些差异,比如还没有任何文件,那需要您点击右上角的“新建”先创建一个知识库,文档内容可以稍后上传。在Beta 2版本,知识库是可以进行管理的,可以选择失效和生效,在知识库灰度升级时将会非常有帮助。
新建知识库之后您可以点击右上角的“快捷导入”来上传您的文档(支持pdf、txt、markdown、word、excel和html格式)。
这里的“知识导入”按钮会一个下拉菜单,里面包括本地文件、WEB网页、纯文本和更多。“新建文件夹”是用来做文件分类的,当然也会在高级版本中具备权限功能。
默认文件的有效时间是“永久有效”,当然您也可以对其进行设定,指定失效时间。
文件上传过程中可以设置失效时间,以及文件内容提取的解析预览(前10页)。
在Beta 2版本中会增加元数据标记功能,让用户具备元数据填写功能,如文件内容的发生时间、所属部门等等,另外也可以进行预览内容的修订。
这里选择确定,进入文件处理过程。
文件上传限制大小为10MB,上传速度应该会比较快。但是请耐心等待一会儿,因为系统需要对文件进行处理,状态一栏会显示处理状态,如“待处理”、“处理中”和“处理成功”。处理大概在会持续1-3分钟。
接下来您可以点击“知识管理”->“问答对话”,进行已经处理成功的文档内容的问答。
这里面需要强调的是新建聊天(会话),同一个会话里面会有上下文记录(实现多轮问答)。如果您需要提上下文无关的新问题,可以新建聊天进行提问。
左下角是保存会话截图和清空会话的按钮。
默认情况下,知识维护和知识问答功能已经可以满足您的试用。如果您需要进一步了解TorchV Bot的其他功能,请继续往下阅读。
这是整个系统中最难的一部分了,默认情况下不建议您自行调整!
prompt编写
这是RAG(检索增强生成)最后一步,就是把内容提交给LLM(大语言模型)处理。
默认情况下,不建议大家调整该部分内容。对于绝大多数用户,这里推荐的仅仅是最上面的指令内容(Instruction)的修改。比如您可以设置大模型的角色,以及给大模型提一些对齐(Alignment)的要求。而已知内容:${context}
和问题:${question}
等内容,不建议非技术人员擅自改动。
参数配置
以上参数可以分为4个组,分别是:
参数的基本含义可以查看每个参数的tips(问号标识)和上图的示意。
对于绝大多数用户,需要按不同情况调整的仅仅是“根据已上传知识库无法回复时”的回复模式:自定义回复,还是大模型兜底?
自定义回复:可以自定义下方的“回复内容”,一般作用是当根据已上传知识库无法回复时,选择据实回答——不知道;
LLM辅助回答:当根据已上传知识库无法回复时,把用户提问直接给到大模型进行回复。
注意?:大模型回复有可能出现幻觉,有一定的几率会误导观众,请不要在严肃场景使用。
这里的根据已上传知识库无法回复时,指的是根据用户的提问,所有召回的索引置信度均低于kms
值。
反之,如果召回的索引置信度有≥kms
值的,则下面的回复方式、回复内容不生效。
查看完整的对话记录,不过多赘述。可以按用户ID查询所有对话,按时间段查询对话。
用户对回复的评价。
导航管理目前仅针对微信小程序端首页体现的快捷语,后续会增加各端导航语的支持。
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-12-23
基于AutoGen构建个性化AI助理Aura的实践探索
2024-11-22
ChatGPT Mac桌面端重磅更新!与VS Code、终端完美联动!工作效率起飞!
2024-11-22
用AI提升使用电脑幸福感的小例子
2024-11-13
吴恩达:如何在人工智能领域建立你的职业生涯
2024-11-12
AI知识泛滥的年代,“脑图+AI”=“埃迪+毒液”:未来工作流的黄金组合,你掌握了吗?
2024-11-08
在未来,这种人或许会沦为AI的奴隶
2024-11-05
未来5年,AI将使全球职场技能变革进程从50%加速到70%
2024-10-30
用AI工具完成部门职责和岗位分解,1天干完1个月的活
2024-07-07
2024-06-24
2024-04-02
2024-04-27
2024-06-06
2024-04-02
2024-05-08
2024-05-04
2024-04-19
2024-05-15