AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


火山引擎智能客服运营专家:字节跳动大模型客服应用实践
发布日期:2025-01-06 13:05:02 浏览次数: 1552 来源:客户观察



过去两年大模型的技术发展非常快,在智能客服这个领域,火山引擎看到且参与到了很多实际的项目中。本届大会,火山引擎智能客服运营专家袁建受邀进行分享。他介绍了字节跳动大模型的客服应用实践,并指出“如今的智能客服确实需要很好的大模型,但是更需要好的运营”。


火山引擎智能客服运营专家 袁建


  文末获取直播回放及嘉宾PPT分享  


追溯智能客服的发展历史,其实在2016年引起过一阵流行,我们称之为AI客服1.0时代。通过一些报道和实际的案例,我们可以看到曾经的智能客服发展非常迅猛,但是诸多问题也接踵而至,最近几年智能客服的表现还是差强人意的。


主要表现在4个方面:


1.存在一些答非所问的情况,服务比较生硬、刻板,无法处理复杂的问题。


2.在服务表现上比较敷衍,比如一些机票退改签的智能客服,其实是商家回避消费者投诉维权的手段。


3.当用户产生情绪波动时,它不能提供有效安抚的策略,人性化的表达较弱。


4.基于一些成本压力,会导致人工客服的接入流程非常繁琐,用户需要突破重重的障碍才能够找到人工客服,其实这种方式会严重消耗用户的耐心和信任。它不但不能成为企业的核心竞争力,还会降低客户解决率,也会扩大客户体验的负面影响。


那么,为什么传统的智能客服会出现这样的问题?其实和它的实现原理包括它的运营动作、运营方式有很大的关系。


传统的智能客服做法会比较简单,运营人员需要预设好大量的在业务中积累的问题,用户发生咨询之后,我们会把这些问题送到意图里面,然后通过分类模型去识别他的意图,再去匹配它的问题和答案。例如它属于a问题就匹配a答案,但这种方式可能会出现没有答案的情况,那就转到人工。所以传统的智能客服运营人员核心是三个动作:1.训练模型;2.加一些相似问;3.加一些答案。


碰到双11这种“业务知识”变化很频繁的时候,就需要有多个运营人员提前预设好答案且做一些精细化运营。例如活动玩法、优惠券满减规则等,这个时候知识的变化很频繁,就会带来一个问题——配置效率比较低。有限的知识库导致其难以应对复杂多变的用户咨询,无法满足业务快速发展的需求。



如何通过大模型提升效果?


大模型在智能客服的应用优势很明显:


1.包括了广泛的知识覆盖

2.生成的文本话术会更加的自然流畅

3.它实时更新知识的灵活性会更加友好


市场需求正在驱动智能客服变革,优质客服一定会成为企业吸引流程用户的核心竞争力,这关乎企业的核心发展,而大模型的出现恰恰对于这个问题的处理有了本质的变化。


AI客服已经正式开始迈入2.0时代,特别是依赖于人工处理知识的环节发生了改变,我们的运营动作促使了客服运营人员的核心动作从原先的一对一意图识别训练变成了编写一个文档。


其次,我们会去做一些提示词工程和效果评估,所以我们的核心的工作也发生了一些变化。比如巴黎奥运会期间的知识可能会比双11更加临时且频繁,变更知识的频率更高,按以前的做法就需要去添加意图,包括要去加相似问答,有了大模型以后,其实我们只需要去变更它的一些知识就可以快速上线。


火山引擎嘉宾分享PPT


消费者对于能够快速准确地去解答一些问题的要求会越来越高,希望我们能够提供更好的一些服务。但是传统的智能客服基于简单的知识识别单轮问答,服务比较生硬,话术也缺乏人性化,对于用户的情绪识别不是特别友好。


依靠豆包大模型和RAG多轮对话,用户在提问时,会进行一些自动追问,提供多轮回复,确保用户的问题能被正确理解和解答。我们会根据上下文去更好地进行理解,包括提供一些个性化的答案提高用户体验。此外,当用户有一些情绪波动,也会更加敏锐地进行捕捉,然后迅速启动情绪安抚机制,给予一些话术化解用户的负面情绪,利用同频共情真正地去解决客户的问题。


大模型赋予了产品强大的知识储备能力和语言的理解能力,对比传统模型,我们认为大模型的知识储备会更加的广袤无垠,从专业知识到行业最新动态,精准解答复杂问题,助力客户作出决策。特别是在知识实时更新机制上,能实时更新到市场的变化,确保信息实时精准。


对语言的生成来说,它会更加自然流畅,这一点在运营提效上也有比较好的一些表现。传统模式梳理时间比较长,火山在这方面有大幅度的缩短,业务办理时间我们可以缩短到10天以内,业务知识的配置也可以缩短在5天之内,包括像通识类的这些知识可以缩短到0.5天。我们希望能为企业注入高效的动力,释放整个运营的生产力。


火山引擎嘉宾分享PPT


我们认为不同的场景所应用的大模型的方式是不一致的,大模型是提升服务质量的核心环节,能够根据用户的意图优化回答策略。但是也会面临一个挑战,如果模型训练周期比较长,那么可能不太能够满足知识灵活多变的需求。


所以纯大模型对接比较适配的是3~6个月周期之内的知识。第二种方式是基模加RAG,这样的方式在简单业务当中能够快速上线,我们也评测过整体可用率,可以达到90%以上,但是在复杂场景里仍然不能够被满足。


第三种模式是基模+结构化提示词满足复杂咨询场景的要求,其实它对于复杂场景拥有更加强大的应对能力,使用结构化提示词的方式,可用率能够达到70%以上,线上的采纳率也相对来说会更加优秀。经过探索我们发现,基膜加RAG的方式或者基膜加提示结构化提示词的方式,才能够成功突破局限。


其实经过半年来的沉淀,火山也提炼了大模型应用的五要素:


1.大模型的性能提升,这里有个非常重要的指标,原来生成一段完整的对话可能需要十几秒,现在可能只需要5秒以内。


2.业务知识的加工,这对于智能客服相当于是新鲜的血液,我们需要有一套完整的机制确保知识能被及时更新。


3.上下文理解,会查看一些用户的过往信息、画像和历史会话记录。


4.AI辅助员工,这对于坐席客服来说体感会比较强。


5.安全,对客服行业来说安全性和话术严谨性的要求是比较高的,传统模型会规避掉一些合规的问题,但现有模型不但会去做一些拦截,甚至还会修改一些不合理的答案。这5要素在我们看来是不可或缺的,也促成智能客服产品的持续升级。


对于服务导航来说,传统的智能客服服务导航模式比较简单,但是对于客服的操作成本会比较高。用户进行咨询后,客服需要根据用户的一些信息和问题描述,结合自己的业务能力去判断、搜索、找答案,找到答案后再发送给用户。


后来发展为AI辅助人工的模式,系统会自动帮客服生成一些主要信息,包括推荐答案,对比之前效率能够提升一倍。但对我们来说其实是远远不能满足现在客服绩效的要求跟需求的。


所以我们把AI辅助人工变成了人工辅助AI的模式,这种情况之下用户进线从一开始的问题确认,包括档案的搜索、输出到安抚,全程都由AI去做,人工只是在必要的时候介入。


其次,在质检方面,传统的智能客服质检的做法其实是通过关键词跟规则去定义质检和扣分项,但是它只能进行抽检,假设今天有1000个对话,它只能去抽5%检查,这样的设定相对来说会比较死板,带来的问题就是准确率包括召回率偏低,大部分会话是没有被覆盖到的。


半年之前大模型1.0质检的做法是通过提示词的描述解决了全量质检的问题,也算是解决了一些抽检不公平的这种问题,准确率差不多能达到90%以上,但是又出现一个问题,就是当量提升后需要投入很多质检和培训的人员去对这些问题进行处理,用户满意度和解决率并没有提升。


所以这个问题到底出在哪?还是要回归到用户体验的本质。因为传统的质检交付的模式会把大模型当作一个工具,它是通过考核绩效、扣钱来惩罚客服,这样反而打击了客服的工作积极性,为了避免扣钱,客服的很多精力就会花在规避规则上。现在我们会把大模型当作一个老师,对客服进行针对性的引导,通过正向激励的方式,鼓励客服把精力放在如何去服务好客户上面。


同样是应用大模型,但是从原先的限制客服变成启发客服,火山觉得这种方式才是真正能够去提升服务积极性的。核心还是希望把服务体感、服务质感变好,这样才能够真正提升服务的满意度跟解决率。


产品的升级其实是一个水到渠成的过程。我们的原理首先还是基于大模型Prompt提示词的工程,然后通过用户视角去定义一次服务到底是好还是坏。


其次,我们也定义了用1~4分来区分一个服务好还是坏,通过数据化运营的方式去定义每一个服务的质量,让服务运营人员去看清服务质量情况的分布。


在业务维度下,我们希望能够准确地发现解决率低的场景,并且改善它,在客服维度我们还是希望及时地去发现每一个客服的不足,然后及时去做管理上的干预跟调整。对沉淀下来的解决率高的一些优秀服务案例,我们也会自动去推送给客服,对于自己的不足的也能够及时改正。通过这个方式希望能真正为客服行业实现自培一体提供好的工具与场景。


如今的智能客服确实需要很好的大模型,但是更需要好的运营,这两件事情是相辅相成的,这才能够最大程度地去提升运营生产力。也希望有越来越多的客服人能够参与到AI客服的建设中,也希望火山引擎能为各位商家伙伴、合作伙伴提升服务质量、服务运营。




53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询