AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


DevDay 圆桌实录 | AI如何商业化落地:企业级应用=场景+数据+模型
发布日期:2024-08-08 19:31:24 浏览次数: 1762 来源:波形智能AIWAVES


今年以来,对于大模型产业链的焦点关注,已经从对技术本身的展望,越来越具象到行业落地当中去。当前,AI商业化进程加速落地,行业相关企业如何迎接这一波新的浪潮?


在波形智能2024 Summer DevDay上,我们有幸邀请到了三位 AI 从业者,与波形智能创始人&CEO 姜昱辰一起,共同探讨产品落地应用、商业化进展、数据基建等方面的经验。


以下是圆桌环节的精彩回顾。分享嘉宾:


胡建宝  顾家家居AI负责人


林群书  整数智能创始人&CEO


吕睿韬(秀才)  喜马拉雅AI负责人


文末查看完整回放


姜昱辰:


这场圆桌论坛由我来主持,邀请了我们的客户顾家家具负责人胡建宝,整数智能的 CEO 林群书,以及喜马拉雅 AI 负责人秀才。我们今天一起来讨论一下 AI 技术在商业领域内的一些实际应用,并探讨如何将理论和技术转化为实践,以及在真实场景中如何从概念发展为可行的商业模式。今天非常荣幸邀请到三位嘉宾,请各位轮流自我介绍一下。


胡建宝:


大家好,我叫胡建宝,来自顾家家居,在顾家工作的时间也比较长。以前是从事软件研发和信息化相关的工作。后来随着 AI 的兴起,公司也非常重视,并成立了 AI 小组,目前我在推动一些相关的工作。简单介绍到这里。


林群书:


大家好,我是林群书,整数智能的创始人。我们目前主要为全球头部的 AI 企业提供人工智能领域的数据服务,包括智能驾驶、Generative AI 和 Embodied AI 等领域。我们的业务覆盖美国、欧洲和中国,通过提供最先进的数据解决方案帮助客户迭代出更优秀的人工智能产品。谢谢。


秀才:


大家好,我是喜马拉雅珠峰的秀才,目前我们主要致力于音频和视频的多模态大模型及其应用,助力喜马拉雅从内容资产公司向 AI 内容运营平台转型。我在 2023 年从依图加入喜马拉雅,在依图时负责 CV(计算机视觉)和人脸识别、语音识别等工作,一直为AI奉献了青春和头发。


姜昱辰:


非常感谢三位。这个圆桌我特意加了一个等式:企业级应用 = 场景 + 数据 + 模型。这是我在上个礼拜参加上海张江的 AIGC 商业化峰会时提出的,当时也引起了很好的反响,这是我们做 AI 这么久沉淀下来的观点。今天的圆桌讨论,我也想围绕这个等式与三位嘉宾进行探讨。我想首先请教一下胡总,今年顾家也做了很多 AI 赋能的思考和尝试,对吧?我们当时也合作了 AI 培训的场景,我想请问胡总,当时为什么会选择 AI 培训这个场景。


胡建宝:


为什么选择 AI 培训呢?我可能从四个方面稍微介绍一下。首先,从 AI 技术在行业应用的角度来看,自从两年前 GPT 出现后,网络上出现了各种新闻,似乎 AI 什么都能搞定。但在实践中,大家也在慢慢回归理性,尽管实际情况并不像想象得那么完美,但确实出现了一些相对比较成熟的场景。比如基于 RAG 技术,在知识库的基础上加上语音转换与语音识别技术,例如类似豆包这样的场景。这种场景可以应用到我们业务中,相对来说是比较成熟的应用案例。


其次,从业务角度来看,正如我刚才所说,我们零售业的培训场景存在一个特点,那就是参与培训的人数众多且分布广泛。由于我们的销售网络遍布全国,想要有效地组织培训其实是很困难的。并且,传统的培训方式成本很高。但通过 AI 技术,可以将知识进行学习、传递,并提供培训体验。我们看到了一种希望,即通过 AI 实现 24 小时不间断的服务,并且效率是一对多的,一个 AI 或数字员工可以解决很多人的工作。


第三点是我们选择与波形合作的原因,在培训这个业务场景中,我们找了很多厂商,也进行了非常多的沟通。但传统培训厂商缺乏 AI 积累,想要达到预期的效果离不开 AI 技术。有些厂商基于通用大模型,但通用大模型解决的是通用知识问题,而我们培训场景依赖于企业内部知识的传递和应用。在这种情况下,需要在通用大模型与企业知识相结合的基础上进行垂直领域的训练和调优,才能实现最终业务期望的效果。


最后一点,我们对这个场景其实是抱有期待和想象的。我们希望通过 AI 技术,不仅仅是沿用原有的模式,而是希望通过 AI 技术以一种全新的方式解决问题,并且可能还会有更多的想象空间,我们也希望进行探索。非常感谢。


姜昱辰:


非常感谢胡总。确实,这个 AI 培训场景的选择非常巧妙。说实话,当初 AI 刚开始应用时,我们构想了非常多样的场景,包括全自动智能客服、处理信用证审核等完全自动化的操作,尤其是在金融等高精度行业。


但实际上,今年落地的效果并没有完全达到预期,这让许多人感到有些失望。主要原因是 AI 本身具有一些技术特点,不能说是能力边界,而是技术上的特性。作为一种概率模型,AI 天然无法在没有任何辅助的情况下实现超高的准确性。


而培训这个场景的选择真的很巧妙,因为它并非完全用人来代替导购做自动化交互——这实际上也不现实。想象一下,在门店里用 AI 与客户互动,肯定难以促成交易。相反,这个场景是对导购进行培训,选择非常好,它不需要极高的准确性,也不要求百分之百的精确度。然而,这个场景为企业创造了巨大的价值,能够帮助销售人员提升自身能力,同时显著降低企业的培训成本。因此,我认为这是一个非常好的应用场景,是整个等式中的第一项,场景在整体应用中的重要性占到了大约 80%。


包括蛙蛙写作也是如此,我们并未试图取代作者,而是帮助他们获得灵感,写出更好的故事,并更快地将自己的灵感付诸实践。


接下来我想问一下秀才,喜马拉雅擅长的技术很多,比如 TTS 、数字人等。你能不能给我们举几个真实的客户案例?哪些案例你认为喜马拉雅执行得非常顺利?哪些案例客户对最终效果还有一些不满意的地方?在整个过程中,你会给 customer success 打几分?


秀才:


喜马拉雅作为头部的音频独角兽平台,实际上在推进 AI 的过程中采取了产业与模型结合的方式,因为模型本身需要以产业和产品为标的,或者说锚定方向去发展,否则模型失去指引,容易变得无序。


过去我们做 AI ,其实是一个“造大锤子、找钉子”的过程,这对模型的应用和数据闭环来说是不利的,也很难实现长期构建。所以我们在构建模型的过程中,首先想的是我们要去哪,这本身也是一个产品非常好的命题。


我们首先锚定的方向是有声书,这是喜马拉雅最大的一个品类。作为音频独角兽,喜马拉雅积累了约6亿小时的音频语料,涵盖了丰富的垂类,无论是对话风格还是有声书的演绎。在有声书演绎方面,我们努力与用户的认知对齐,这个其实是比较难的,因为最初我们打算优先服务创作者,让他们调教模型。但我们后来意识到,还是需要去跨过创作者,直接从用户的角度出发。


第二点,我们得比我们的创作者用户更了解他们的听者用户,也就是说我们要从数量最多的 C 端用户角度去理解整个音频的演绎和创作。在这个过程中,我们也发现了一些问题,尤其刚刚昱辰也问到了,在哪些场景下 AI 表现还不够好


我们自己反思复盘后,认为有几个方面,比如在角色情感的控制方面,虽然我们能做到非常精细的情感生成,但在某些复杂的场景下,例如涉及多人物的多播剧中,由于存在复杂的人物关系和庞大的世界观,常常包含隐式表达。在这个过程中,如何让模型理解这些隐式表达所指的具体人物及其情感状态,以及如何在特定场景下结合人物关系、亲密程度和其他因素来正确传达语气,这些都是我们遇到的问题


姜昱辰:


了解。我比较好奇的是,因为在今天的圆桌讨论中,我们实际上是希望能揭示行业背后的一些真实情况和秘密。在交付的过程中,我们有没有遇到过这样的情景,一开始觉得非常好,但最后的交付效果却不尽如人意。


秀才:


我觉得这是一个无论是对内做业务赋能,还是对外进行商业化的大模型普遍会遇到的问题。首先,我认为这涉及到对 AI 的认知问题。用户往往对 AI 有着过高的期望,觉得模型能够解决一切问题。实际上,虽然模型的能力确实在 scaling 中实现了非常陡峭的发展,但仍然与用户的最终期望存在一定差距。这个差距本质上需要通过统一用户的认知和控制预期来解决,包括对模型发展曲线的理解,以达到认知与预期之间的平衡。


其次,用户对最终结果的期望可能会很高,他们可能投入了很多资源,无论是费用还是数据。而在模型效果方面,我认为模型本身仍在发展中,无论是单模态还是多模态模型,都在陡峭发展之中,但并不能一蹴而就。作为产品方,了解模型发展的边界并与用户找到平衡点非常重要。


姜昱辰:


了解,我觉得这段讨论非常有信息量,特别是我们这个组合非常多元,既有甲方也有 AI 企业。确实,选择正确的应用场景是我们一直以来的心得,值得花费更多的时间来仔细挑选,这样做往往能事半功倍。包括了解模型边界以及对技术有预判等问题确实存在,所以这段讨论非常有价值。


接下来,我们来谈谈等式的第二项:数据。今天我很高兴邀请到了我的好朋友群书,群书就是做数据的,所以也想跟群书来探讨一下数据的问题。我们都清楚数据是 AI 商业化落地的关键。前几天,小王也在大谈数据对于 AI 基建的作用,我们其实在数据上合作了非常多的案例


我想请教一下,在 AI 时代,企业应该如何构建良好的数据基础设施,以便能够迅速应对 AI 时代的发展?


林群书:


实际上,机器学习发展这么多年,本质上对于数据的需求其实一直没有变。大家对于数据的需求一直没变,只是对于数据的形式会发生一些变化。特别是这波基于 GPT 架构的大模型,大家会发现数据的使用阶段也有所变化。比如使用预训练数据完成模型的预训练时,这些数据大多是没有标注过的,此时更注重的是数据量而非质量。但在后续的 SFT RLHF 阶段,则更强调数据的质量而非数量。


因此,不同的环节对于数据的需求会有所不同。日常生活中产生的数据通常不能直接用于模型训练中具体的精调,需要经过人工标注的结构化处理,形成结构化数据,才能用于训练高质量的人工智能模型。从数据采集、清洗到标注,整个过程是一个复杂的工程化 pipeline 只有确保这个 pipeline 足够高效,这个系统才不会变成“ garbage in/ garbage out 人工智障,才能产出真正的人工智能


当然,随着数据的使用,大家也会发真正高质量的数据在网络上已经没那么多了,可能需要采用数据合成的方式来获取,这个姜总估计也有比较深的感受在文本数据合成之外,图像领域的数据合成难度更大,因为需要满足更多的物理规律才能合成出高质量的数据。有了这些高质量数据后,我们再进行模型训练,就能得到更高品质的算法结果。


在这个过程中,需要将大量的工程化技术和智能标注技术融入到数据获取的整个 pipeline 中,确保输入模型的数据是准确无误的,或者至少符合我们的价值观和社会规范,这样训练出来的 AI 算法才是符合这个场景的比较好的算法


姜昱辰:


好的,感谢群书。我也来问一个实际的问题,在座的各位以及正在观看直播的许多人可能会非常关心,即在数据生产的过程中,我们之前也讨论过数据合成的事情,并且在这方面有很多的合作案例。我们比较擅长利用大模型来生产数据以及补充企业缺乏的数据,但企业离不开人力。我想请问群书,作为一家专门从事数据工作的企业,你是如何平衡人力与模型自动生成这两方面的工作?以及在当前的技术背景下,是人力投入更多,还是模型自动生成的更多?


林群书:


其实前几年的时候,整个行业中几乎95%以上的企业都采用纯人工方式进行数据标注。当时使用自动化算法处理数据的企业并不多。但在2018年之后,随着智能驾驶技术浪潮的兴起,大家意识到纯人工标注的效率太低。如果一年内采集的数据如果全靠人工标注,成本可能高达数十亿甚至数百亿都不值,所以大家开始广泛采用自动化标注技术来处理数据。自动化技术可以完成95%以上的工作量,而剩余5%的工作则由人工负责,主要是对机器自动标注的数据进行精细校验。


同样的原理也适用于大模型技术,尤其是文本和多模态的大模型技术,它们通过算法实现自动化标注,随后由人工完成精加工。但也存在一些差异。比如在进行主观任务学习时,我们需要了解更多人的倾向性反馈。比如我们在为 midjourney 做日漫风格的内容生成时,就不能依赖自动化标注技术,而是要直接学习人类的真实反馈,以判断哪种生成效果更佳。


对于这类任务,是无法完全依靠算法替代的,因为这样可能会影响最终模型训练的质量。但对于那些有明确答案的任务,我们完全可以充分利用自动化标注算法,极大降低人工成本。随着每次模型的迭代升级,我们可以获得更优秀的自动化标注算法。这意味着我们可以使用更高质量的预标注数据进行人工校验,然后用于模型训练,从而得到更好的预标注模型。


通过持续迭代,我们可以积累更多的训练数据,逐步减少每次迭代所需的人工成本,进而更接近于实现AGI的目标。


姜昱辰:


非常有信息量。群书讲的其实是数据飞轮的概念,这在应用当中是非常非常有效的。我们利用用户数据进行迭代,以生成更个性化的内容,但在这个过程中有个非常重要的点,就是隐私保护,如何确保用户帮我们标注的数据是符合隐私保护标准的否则用户不会愿意持续为我们提供数据,对吧?


林群书:


对的,实际上,隐私保护是我们与客户合作时常遇到的问题。不仅企业自身关注,用户也会关心。隐私保护可以分为几个阶段。首先,需要确定数据是由用户贡献的还是由甲方提供。如果是甲方的数据,我们会进行私有化部署,并确保整套数据处理平台只在其域内运行,再通过设置VPN等访问控制措施来保障数据安全,这种形式也是比较容易去做的。


但是也有些场景的数据,比如要从户与你的 APP 的交互中获取数据,这个难点在于能否与用户达成良好的协议,让用户同意将其与APP交互产生的数据贡献给模型用作进一步训练。我们观察到一些较好的实践,如基于 Web 3 技术激励用户分享数据以用于模型训练。


此外,在某些私有化垂直场景的应用中,数据本身就限定在特定范围内,这使得模型训练更为简便。我相信姜总对此肯定也有更深入的思考。我们的话,目前在实际操作中,主要关注的就是上述两点。


姜昱辰:


了解,所以我们做的 LPA 其实也是一种保障,在确保隐私的前提下能够进行数据收集和数据反馈的工作。在数据这件事上,我和群书,波形和整数都非常重视隐私。那么等式的第三模型,我们波形有自己的 all-in-one 模型、训练框架以及 agent 搭建框架,这套框架也已成功训练出类似于 Weaver 这样的垂域领先模型。在此我想同样询问拥有自有模型的喜马拉雅秀才,喜马拉雅在模型训练上是如何确保自己保持行业领先地位的?


秀才:


我觉得可以从几个方面来看。首先,我们要明确自己的市场定位。我们的定位肯定不是做一个通用的文本大模型,而是专注于音频领域的垂类动态大模型。这里有几个点,第一是在算力方面,我们无法与巨头相比,但我们拥有每个垂类的音频内容,因为喜马拉雅是一个音频平台,我们为每个垂类的音频内容支付了版权费用。这些内容非常丰富且稠密,为我们构建了一个健康且广泛的预训练数据集。


第二点,我们拥有大量的,大约2000万创作者,他们每天使用我们的声音创作工具,并结合 AI 能力打磨、创作更优质的作品。在合法的协议框架下,他们通过AIGC与真人协作的模式,生产出 PGC PUGC 反馈,也能让模型不断地自我迭代、自我进化。


第三,用户端的反馈也很重要,因为用户其实也会做打分他们的所有行为数据,包括他们对声音和内容的偏好,都会形成一个打分系统,我们会把打分系统纳入到奖励模型中去做 DPU 相关,通过强化学习使模型持续改进。


这些是一方面,是本身的数据模型基座。此外,在产品创作和消费过程中,用户的持续交互促进了模型的不断裂变和演化。在当下这个节点,我觉得模型仍然处于陡峭发展的阶段,高质量数据是最核心的从模型效果的表现来看,数据质量的提高每增加20%,模型的效果至少能提升10%-15%。用户的持续使用和与模型的交互不断使模型与人的行为更加对齐,强化学习机制让模型变得更加强大。


姜昱辰:


了解,我总结一下,大概就是说数据模型和用户反馈是在模型训练中最重要的一部分,也是我们作为一个模型企业想要保持领先需要最关注的三个方面。


秀才:


是的。


姜昱辰:


好的,感谢秀才。接下来的问题也是关于模型的。我想请三位都回答一下这个问题:我经常听到朋友们问我,Eleanor,训练一个垂类模型需要多少数据?私有化部署一个模型需要多少成本?当然,胡总你也问过我类似的问题。今天我想在圆桌上问一下大家,对于模型训练和模型部署的成本问题,大家是怎么看待的?首先请胡总分享一下您的看法。


胡建宝:


对于企业来说,这是一个很现实的问题。我们之前也考虑过模型可能分为几类:最底层的是通用大模型,其次是与特定行业知识结合的行业模型,还有一类是我们企业自己私有的模型。


对于企业来说,通用大模型原则上不会触及,因为成本太高,通常只有国家级或特定行业领域级别的机构才能涉足,我们一般也不会去用通用大模型。


对于行业级模型,如果能解决行业问题或为企业带来行业机遇,我们可能会考虑。行业模型有一个特征,就是单一企业难以独自完成,可能需要多家企业联合起来共同构建,分摊训练成本,最终形成行业层面的数据、模型和应用。


至于企业级模型,我认为可能有不同的逻辑。我们的构建思路是与专业的 AI 公司,如波形,共同构建。


另外有些企业可能会选择购买一些4090之类的较小规模的计算设备自行搭建,解决企业特定数量级的问题即可。还有些会采用云资源托管的方式,可以根据业务的扩展性进行弹性扩容,以解决灵活性问题。我认为对于企业模型来说,这两种方案可能更为靠谱。


姜昱辰:


没错,所以我们实际上的合作也是采用了云端私有化的方案。我觉得对于企业来说,去年我们可能都很热衷于讨论大模型,计划投入大量资源进行训练。但实际上,在真正落地时,包括我们所说的要做对人类真正有用的AI,确实需要考虑成本与效果之间的权衡。


事实上,在许多场景中找到ROI 的场景,并在这个场景中训练能满足该场景需求的模型,就已经能够满足大多数需求了。这是我的理解,也感谢胡总的互动。那么群书,你是怎么看这个问题的?


林群书:


我们服务了非常多的行业,从初创阶段到已上市多年的各种企业,我们会给客户做预算,从数千元到数千万元不等,这个其实取决于企业的行业特点,或者说对安全性或精度的追求。


比如,在智能驾驶场景中,既有自动驾驶算法,也有舱内的大模型开发。对于舱外自动驾驶来说,它对于安全性的追求是永无止境的,一旦出现问题可能关乎人命。它不像和一个大模型对话,即使大模型说错了话,人们可能还会觉得它挺幽默。但是在舱外,如果将一个人误识别为垃圾袋,后果就会非常严重。所以在智能驾驶领域的数据构建,即便是小一点的车企,每年的投入也可能达到 1, 000 万到 2, 000 万,而大的车企可能投入上亿元都不止这取决于他们对精度的要求。


回到文本领域,也要看具体的应用场景。比如我们开发的心理咨询类对话机器人,可能只需要几万段对话就能训练出一个能回答问题的 chat bot 但是编写这些对话又需要专业的心理咨询师,这样的人力成本自然会让高于普通人来写。比如,一段包含 10 个来回的对话可能需要几元人民币,几万段对话的成本可能就是几万元。但是有些场景可能不需要这么专业的人,如果不需要专业人士参与,成本就会随着专业度要求的降低而下降。


现在,我们开始做一些新的尝试,比如为了增强 chain-of-thought(COT)能力,构建了一些行业前沿的数学数据集和编程数据集,这方面的成本相当高。海外的 Scale AI ,可能会为每位标注人员每小时支付约100美元的成本来构建这样的数据集,这样一来,成本就会大幅上升。


当然,如果做一些稍微简单一点的工作,不需要很强的专业能力,构建数据集的成本就会显著降低。


另一个考量点在于是否真的需要微调一个模型,还是采用 RAG 的方式。我们之前接触过一些海外的大模型企业,他们要给自己的客户去做垂域大模型的私有化部署时也面临这个问题,是重新标注一些数据,还是直接采用 RAG 的方式? RAG 的成本肯定会比重新标注低一些,对于训练成本的影响也较小,所以这也是每个企业需要根据自身状况作出选择的事情。


姜昱辰:


了解,这是非常好的观点。我和群书持有相同的看法,就是作为从业者,今年以来我接触了大量的企业,想要做私有化的模型训练和部署。但最大的感受是,在80%的情况下,企业实际上并不需要训练自己的模型。做这件事更大的挑战,在于隐私方面,即如何确保企业级数据只能由自己使用,闭源模型在这方面其实并没有绝对的保证。


这也是我们开发LPA技术的初衷,希望能在不训练模型或以较低部署成本的情况下实现企业的千人千面的个性化需求并保障隐私,当然也包括个人用户的需求。


我也大概总结过,就是在某一些场景中,确实是需要训练垂域模型的比如当文风或语音风格较为特殊时,就需要训练垂域模型。但在一些重视思维能力的场景中,训练一个小模型的效果反而不如使用大模型好。这其实是一个指导原则,即企业在部署模型时可以根据具体场景去考虑要不要做这个动作,因为这样做其实价格不菲。


并且,除了算力投入,还需要考虑数据投入,这一点群书非常清楚,并且之前已经给出了一些成本数字。在一些高价值领域,如标书写作场景中,我们曾为企业创造了几千万元的效益。在这种情况下, ROI 是可以计算出来的。


但在大多数场景中,我认为其实构建 agent 就可以满足需求了,而且成本也相对更低,很多时候只需要十几万元就够了秀才怎么看呢?你们也应该有过不少经验吧?


秀才:


我大概有几个点。第一个点其实是从 ToB 的企业角度来看,企业作为商业主体,核心都需要遵循经济学原理,即必须有正向收入。对我们而言,考虑的有两个方面:一是内循环,即在内部创作或内容生产端提高效率和效能。如果只谈效果而不考虑成本,或者只谈成本而不考虑效果,都是耍流氓。这两者之间需要找到一个平衡点,即效能,内循环的核心也在于寻找效能的平衡点。


二是外循环,即在用户的消费体验方面,本质上是通过构建独特的个性化体验来提升用户体验,从而促进用户的增长和长期留存付费。这是外循环的重点。


我觉得对我们来说,需要从成本和效果两个方面综合考虑这个问题。我们采取的是分布式策略,即有些方面是自己独有的,因为这是我们竞争壁垒的一部分,而且通用模型的演绎,尤其是在语音领域,可能难以达到我们的要求,因此我们必须自己去做正确的事情。这是我想要表达的第一点。


第二点是关于趋势。我觉得未来,从2024年开始,个人也会成为企业,而不单是群体组成的企业,是真正的一个人就是一个企业。举个例子,我的侄女,主业是金融,副业是写小说在我给她介绍了蛙蛙写作之后,她开始使用蛙蛙写作来辅助创作,本质上也是一个人在做一家企业。


我们聊过写作的过程,从灵感的涌现、构思到构建人物关系、人设、人物关系图谱,以及章节拆分等等,这些本质上都是不同的专家模型。


在过去,她需要扮演不同的专家角色,而每个角色都可能无法做到最好或实现单点突破。而现在,在使用 AI 的情况下,她只需要专注于某一点。正如之前提到的,她可以让 AI 通过更大的参数或“大脑”来解决她不擅长的部分。这就像人类有左脑和右脑,左脑代表直觉,是系统1,右脑代表逻辑推理,是系统2


使用蛙蛙写作这样的工具来写小说,实质上是帮助她获得了更强大的右脑。这让她在一个人的企运作中更具战斗力和竞争力。对她而言,无需承担高昂的私有化部署成本,使用公共云和蛙蛙写作这样的工具就能实现个人企业的经济效能提升。


姜昱辰:


好的,感谢秀才。接下来最后一个问题,我想请教一下胡总作为收尾,因为我们今天讨论了很多内容,胡总身处传统企业如何看待当前火热的 AI 化趋势?您在这个问题上有什么样的一些自己的思考?


胡建宝:


这是我个人的的一些想法。对传统企业来说,发展和竞争是两个关键方面。发展而言,企业需要找到更多新的机会;竞争而言,关乎运营的质量、能力和效率。那么,在这两个方面, AI 扮演着怎样的角色?企业又是如何看待这一问题的?


从机会来看,新技术,不论是第一次还是第二次工业革命,都推动了社会变革和商业模式的创新,带来了新的机会和模式。对于企业来说, AI 可能会带来新的机会和场景,当然这也需要时间的积累和发展。


从效率来看, AI 在这一环节中无疑扮演着非常重要的角色。企业前期会更倾向于推动与效率相关的工作,这是需求的视角。


而站在应用的角度,企业可能会将 AI 分为几类。第一类是通用型应用,如豆包、Kimi、秘塔等工具,适用于全员。包括 ChatGPT ,所有员工的每个工作环节都可以应用,这种工具其实就是通过提示词工具的介绍和案例宣传,让所有员工都能够接触并利用这些工具来提升工作效率。


第二类是针对特定的场景或群体的应用。前段时间我参加了一次交流会,IDC的吴连峰老师分享了一个他做的调研和总结,目前国内有几个场景式比较成熟的,比如 AI 知识管理、 AI 培训、 AI 营销内容制作、数字人、编程以及创意设计,例如 midjourney这类应用是针对某种工作群体和工作场景的,需要设立专项推进,并构建专业的工具。在推进过程中,不同企业可能会采取不同的策略,有的企业会选择自主建设这些工具,有的则会与专业的 AI 公司深度合作,提高落地应用的效率


还有一类应用可能会有机会点,但它的构建过程存在一定的不可预知性,譬如视频内容制作等,因为依赖于数据和技术成熟度的调优,很多人会说是一个炼丹的过程,充满不确定性。不过,我是认为企业还是要做出一些小规模的尝试和探索,逐步投入资源,待时机成熟后再加大投入,厚积薄发,推动应用的建设。以上就是我个人的一些看法。


姜昱辰:


信息量,非常实在。我总结一下,企业可以从一个场景出发,将整套系统跑通,或者掌握这个流程,然后在这个场景中找到 ROI 高的点,并且实现了良好的应用和效能后,才能铺开服务企业其他场景。


好的,感谢胡总的分享,也感谢群书和秀才的分享。我们的圆桌讨论就到这里结束了。感谢大家,谢谢。

   往期回顾


   波形产品

基于Weaver驱动的面向用户写作类Agent产品「蛙蛙写作」,专注于深度解决千人千面、千行千面的写作需求,能够更好地理解用户意图并产生更准确的文本内容,精准解决更多内容创作领域的具体问题。

点击“阅读原文”,立即体验「蛙蛙写作」


53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询