每个IP都需要AI分身,每家企业都需要AI客服。大家可以记住我这句话,半年之后来考古。
我很确信,这一轮AI技术落地、AI应用爆发,一个代表就是AI分身、AI客服的普及。前者对应超级个体,后者对应超级组织。这个进程正在加速,因为云厂商已经加入进来了。市场格局肯定会变,不再是模型厂商占主导的局面。你看,我就给自己的公众号加了个AI分身。这个智能体应用的背后,是腾讯云大模型知识引擎在驱动。我记得一年前刚开始做视频介绍AI的时候,市面上的RAG工具特别稀少,而且还得靠自己各种组合、调试,才能实现一些定制需求。我甚至一度都想自己手搓一套系统了。你再对比现在就会发现,这一年的发展实在太快了,出现了RAG as Service,出现了一大堆开箱即用的产品。就拿我刚才提到的智能体应用来说吧:大模型我用的是“精调知识大模型高级版”,打开了“上下文改写”,把记忆轮数加到10轮。这个模型你可以理解为就是专门为RAG特训过的模型。当然,如果你觉得上下文长度不够的话,可以选别的,比如256K长文本版的混元大模型,这长度绝对够用了。看这一串的列表你就知道,为什么大厂都要搞基础模型研发了。那么多的业务场景等着特定的大模型开锅呢。这种战略主动权不抓自己手里,脑子真就坏掉了。在知识库设置方面,我选的是“文档”,因为都是现成的视频脚本。如果你本来就有人工客服,想转成AI客服,那肯定会有QA,对吧?这时就可以选择“问答”。一般来说,问答类型的资料,对提升检索的精确度会更有帮助。之后我也会慢慢积累一批关于AI的问答,根据我的知识储备、我对AI的理解来调整。目的是让这个AI分身尽可能接近我的认知。召回设置方面,一个是召回数量,也就是召回多少个切块给到模型;另一个是检索匹配度,也就是相似度达到一定数值之后才会被纳入。至于切块的大小,并不需要用户设置。腾讯云知识引擎会根据语义、根据整篇文章的意思,自己决定该从哪里切割,这样才不会把上下文的意思给硬生生截断。这一点我特别喜欢。如果你之前有用过RAG工具的话,就知道要决定切块大小有多麻烦了。最后,我把“搜索增强”打开了。也就是说,模型在回答的时候,除了会参考我给的知识库,还会去调用微信搜一搜和搜狗搜索的能力,从微信生态内,比如海量的公众号文章,补充更多信息进来。之所以打开“搜索增强”,主要是因为我不想要一个只会鹦鹉学舌的AI分身。如果你的需求是AI客服的话,那可以不打开,这样更可控、更保险一些。当这些基本设置都搞定之后,大家别着急上线,记得做评测。先导入样本集,然后去创建评测任务。评测的目的是看看模型回答的准确率能到多少。如果准确率不达标,要么回去改设置,要么去改资料。说实话,我之前见过太多人搞了RAG之后大骂没效果、AI胡说八道了。其实绝大多数都是因为想当然地认为,把资料全喂进去就可以。在真实世界里,现有的技术还没到这么傻瓜的程度,还是需要你做评测、做调试的。不仅如此,正式上线之后,还会遇到用户对回答不满意的情况。这时就会用到“效果调优”。在这个页面,我们会看到所有用户不满意的回答。刚才说的评测只是模拟情况,而这边是实际业务场景。两个加起来,才能把这个AI分身、AI客服调到最佳状态。腾讯云能想到这一点,并且把它产品化,真的是功德无量。哈喽大家好,欢迎来到我的频道。谦虚地说,我是国内少数几个能把关于AI的Why和How讲明白的博主。我提供的东西比教程更值钱。记得点一波关注。如果想链接我,就来newtype社群。已经有600多位小伙伴付费加入啦!很多人都在关注C端市场的AI应用。我其实更多是在看B端,两个原因:第一,现阶段的AI能力距离市场的期待还挺有距离的,C端很难出现现象级的、能解决大问题的产品。第二,B端对AI有明确需求,赛道非常清晰,回报也很可观。所以这边更有可能出现好东西。对我这种“个体户”来说,用上企业级的产品,那就是降维打击。这是我看上云厂商产品的原因,也是我推荐给大家的原因。腾讯云大模型知识引擎是一款PaaS产品。刚才我介绍的只是RAG的基础功能。如果你理解原理的话,那这部分的操作应该非常容易。快的话,十分钟搞定。更进一步,如果你想对这个智能体应用有更清晰的指导,如果想把你的SOP教给AI,那一定要试试工作流管理功能。举个典型的例子:图书馆客服服务。用户找图书馆一般会需要三种服务:要么借书,要么还书,要么咨询相关规则。于是,在这个画布上,大家可以看到三条路径,对应三种服务。在工作流的开端,AI会先根据用户的询问做一个条件判断,决定是要进入哪条路径。我以借书为例。整个过程,AI会主动引导用户提供相应的信息。首先是要借什么书,以及借多久。因为涉及到时间,很多用户表述会很不一致,比如两周、一个月等等,所以需要做个参数归一,把所有表述都统一成天数。接着,AI会根据书名和要借的时长去调用接口、查询能不能借。如果能借,那就走上边的分支,要求用户提供账号ID。如果不能借,那就走下边的分支,问用户要不要换一本书。任何涉及到流程的交互,都可以变成工作流。比如很多人问我怎么学AI,如果用我的AI分身来处理的话,就可以把工作流给用上。根据我本人的回复和理解,设计一系列的条件判断、各种分支路径,然后全部教给AI。所以大家一定要把思路打开,别觉得这一大套东西只能用到客服上边。另外,一个智能体应用可以挂上N个工作流。也就是说,你可以设想多种场景,创建多个工作流。AI会根据对话内容,自主判断需要进入哪一个工作流。这一点非常有用,可玩性太高了!知识库加工作流,就是目前智能体的所有能力。前者对应知识,后者对应经验。腾讯云知识引擎把这些都打包好了。所以,用户只需要把精力放在设计、调试和调用上。设计和调试刚才都介绍过了。那么在调用方面,这个知识引擎以API为主,毕竟是PaaS。如果你有比较强的开发能力和需求,只需要引擎的其中一部分能力的话,可以选择“原子能力”,包括:多轮改写,其实就是针对用户可能提问不完整的情况。模型会结合上下文语义去完整还原。这个挺有用的。Embedding和Rerank,一个是把文本进行向量化,一个是把召回的切块进行重排序,都是RAG必备能力。文档解析,很基础、很重要,也很容易被大家忽略。好的解析是一切RAG的出发点。腾讯云在这方面很有优势。市面上很多知名的AI产品都在调用他们的文档解析技术。他们可以把各种文档转成Markdown格式。而且还可以解析表格、图片,以及页眉、页脚、标题等等内容元素。这个真就帮了大忙了,省去了我们大量处理文档的时间。这四个“原子能力”的调用,腾讯云知识引擎都有很详细的文档介绍,我这边就不演示了。我这个频道算是介绍RAG起家的。从本地大模型的使用,到RAG引擎的部署,过去一年我分享了好多这方面的内容。到了年底,终于有厂商推出开箱即用的综合型产品了。大家看完视频记得去试试腾讯云知识引擎。OK,以上就是本期内容。想讨论AI,来我们newtype社群。那咱们下期见!