AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


大模型在金融行业的应用场景和落地路径
发布日期:2024-04-23 16:38:29 浏览次数: 2324 来源:技术领导力


这是最好的时代,也是最坏的时代。尽管大模型技术在金融领域具有巨大的应用潜力,但其应用也面临不容忽视的风险和挑战。本文将深入研究大模型在金融领域的数据隐私和安全风险、模型可解释性和透明度、监管和合 规要求,梳理中国、美国、欧洲等地 AIGC 技术的应用规则,探索对应的风险管理和应对策略。 


01 大模型在金融领域的 5 个典型应用场景


当前,金融科技已经从“立柱架梁”迈入了“积厚成势”新阶段,越来越多的金融机构积极使用数字技术来为金融血脉注入全新能量。人工智能技术正加速与金融产业深度融合,以 ChatGPT 为代表的大模型技术不断进化,为金融业带来深刻变革,驱动金融服务更加高效、便捷、有温度。 


ChatGPT 拥有持续的多轮对话能力,并具备一定逻辑推理能力,在生成文章、生成代码、翻译等方面展现出令人惊叹的水平。ChatGPT 的问世,意味着人工智能从 1.0 时代迈入了 2.0 时代。ChatGPT 背后的 GPT 大模型技术是下一代 AI 技术竞争的核心,将重新定义包括金融在内的众多行业,重塑全球科技竞争格局。 


金融行业属于信息密集型行业,是大模型技术的最佳应用场景之一。未来,具有通用能力的大模型将成为信息处理的基础设施,大幅降低中小银行应用人工智能技术的门槛。由于在数字资源、科技能力、业务场景等方面的天然劣势,中小银行与大银行相比,在数字化转型方面相对落后,且差距越拉越大,“智能化鸿沟”也越来越明显。在大模型时代,各类银行重新站在同一条起跑线上,都可以便捷地使用 AI 技术,插上一双数智化“翅膀”,曾经再“阳春白雪”的复杂数据,也能飞入“寻常人家”。 


如果将大模型的能力放在金融行业中去处理原有的任务,会对很多工作产生颠覆性的影响。相比现有的 AI 技术,大模型技术在众多金融场景具有广泛的应用潜力和影响力。 

  • 金融风险管理。大模型技术可以用于构建更准确、更全面的风险模型, 帮助金融机构评估和管理市场风险、信用风险、操作风险等,提供更 精确的风险预测和决策支持,有助于金融机构制定有效的风险管理 策略。 

  • 量化交易。大模型技术可以应用于量化交易策略的开发和执行。通过 分析海量的金融数据和市场信息,识别出潜在的交易机会和趋势,自 动执行交易策略并进行实时调整。这有助于提高交易效率,降低交易 成本,提升交易的稳定性,以及增加收益。

  • 个性化投资建议。大模型技术可以根据个体投资者的偏好和风险承受 能力,生成个性化的投资建议和组合配置,辅助投资者做出更明智的 决策。

  • 金融欺诈检测和预防。大模型技术可以应用于金融欺诈检测和预防。通过分析用户的交易数据、行为模式和历史记录,识别出潜在的欺诈行为和异常交易,提高金融机构对欺诈风险的识别和应对能力,保护 客户和金融系统的安全。

  • 智能客户服务。大模型技术可以用于构建智能客户服务系统,通过提 供流畅的人机对话服务,提升客户满意度和忠诚度。


02 大模型在金融领域应用所面临的风险及其防范 


自 2020 年 OpenAI 提出大语言模型的缩放法则(Scaling Law)以来,用 “大力出奇迹”的方式去做大模型仿佛成为“金科玉律”,“大炼丹”时代序幕 拉开,百亿、千亿参数规模的大模型比比皆是。量变引发质变,超大模型蕴 含着的涌现能力被发现,但在惊讶于这种神奇能力的同时,我们同样应该审 视其潜在风险。在斯坦福大学的学者们的眼里,大模型涌现的能力既是科学兴奋的源泉,也是意外后果的忧虑之源。换言之,如果不能引导大模型“向 善”,那么它随时可能伤及人类本身,带来不可估量的后果。 


金融行业是数据密集型行业,涉及海量的金融数据和复杂的金融业务。大模型对于提高金融业务的自动化和智能化水平、提高风险控制和决策效率 具有重要意义,在生成书面报告、开展培训和投教、提升客户陪伴质量等应用场景中潜力巨大。目前,国内外金融机构已经纷纷开始探索将 GPT 等大语 言模型应用在金融领域的各个场景。


1. 大模型应用在金融领域的 5 个风险和挑战 


尽管大模型技术在金融领域有着广阔的应用前景,但其稳定性、可靠性 和安全性有待提升,面临着不少风险和挑战。


第一,数据隐私和安全。金融数据包含敏感的个人和机构信息,而大模 型需要大量的数据进行训练和应用。因此,确保数据隐私和安全成为一个重 要的挑战。大模型十分依赖数据,然而许多数据质量不高、不完整,仍然需 要花费大量人力和时间进行数据清洗与预处理。另外,模型可能会受到恶意 攻击,如对抗样本攻击、模型篡改等。这些攻击可能会导致模型输出错误的 结果,从而影响金融决策的准确性和可靠性。 


第二,解释性和透明度。大模型往往是复杂的黑盒模型,其决策过程和结果难以解释与理解。金融行业是一个对于模型的可解释性和鲁棒性等要求非常高的行业。而大语言模型当下输出结果的可解释性目前是相对封闭、不透明的,同时,其稳定性也仍然受到数据、算法、训练等方面的干扰,表现出非鲁棒性的特征。 


第三,数据偏见和倾向性。大模型的训练数据可能存在性别、种族等方面的偏见。如果这些偏见被应用到金融决策中,可能导致模型在决策和预测中产生不公平或歧视性的结果,进而误导用户,致使用户做出错误的决策。 


第四,可信度与伦理问题。ChatGPT 等生成式大模型以问答形态存在于社会层面,但其回复往往存在不可信或者无法判断其正确性的问题,有时看似回答流畅,但却在一本正经地胡说八道,有时甚至会对现有社会伦理产生冲击。具体而言,存在传播有害意识形态、传播偏见和仇恨、影响政治正确、破坏教育公平、影响国际社会公平、加剧机器取代人类的进程、形成信息茧 房阻碍正确价值观形成等问题。 


第五,组织能力的挑战。金融行业可以通过应用大模型来替代人力去执行机械的重复性工作。但是,金融机构面临如何厘清人和机器之间的协同合作关系的问题:一方面,如何更好地为人赋能,提升人使用 AI 工具的能力;另一方面,如何不断调整和优化人与数字员工的职能边界。 


2. 大模型时代的 AI 风险


应对大模型技术的风险和挑战,引导科技健康有序发展,需要政府、平台、学术界、行业和公众共同努力。通过完善法规、促进跨学科合作、提高透明度和加强隐私保护、加强道德评估和促进公众参与等,推动人工智能健康发展。而金融机构更要注重风险管理的前瞻性,加强内外部环境剧烈变化 下的风险管理。


一是全面加强数据隐私和安全管理,如采取加密、脱敏等技术手段,严 防客户和机构敏感信息泄露。在数据收集过程中利用差分隐私等技术进行隐 私保护;对于训练数据进行数据加密;在模型训练过程中使用安全多方计算、 同态加密及联邦学习等技术进行数据隐私和安全保护;建立数据隐私评估和 保护模型、机制,实施安全认证,并且保护下游应用的隐私;严格遵守《中 华人民共和国个人信息保护法》等相关法律法规,落实数据安全保护责任。 


二是加强模型的安全性,包括进行对抗样本检测和提升模型的鲁棒性,以应对可能的攻击和欺诈行为;让不同的模型适用于不同国家的法律条款,以及针对各种对抗攻击进行防御性训练。对于对用于大语言模型开发的数据 进行人工标注的,开发主体应当制定清晰、具体、可操作的标注规则,对标注人员进行必要的培训,抽样核验标注内容的正确性。保障和规范 AI 的训练过程,及时发现问题,及时止损并调整模型参数。避免因源数据本身存在争议、来源不可信或素材违法或侵权,而生成虚假、歧视或不公平的结果。 


三是建立监测和评估机制,定期评估大模型系统的性能、准确性和公平性,并及时发现与解决潜在的风险和问题。


四是提高算法的可解释性和透明度,使用可视化技术和交互式界面来展示算法的决策过程。建立审查和评估机制来消除算法黑盒问题,促进负责任的 AI 的开发、部署和应用,提高生成式 AI 的安全性、可解释性和可问责性,以更好地预防风险。 


大模型已来,要在不确定性中寻找确定性。正如加州大学伯克利分校教授 Jacob Steinhardt 所言:“机器学习的步伐太快了,模型的能力提升往往比预期更快,但其安全属性的进展却比预期要慢,我们需要从现在开始构建未来十年的机器学习系统的发展图景,防范大模型时代的 AI 风险。同时,我们要认真思考 AI 与人类的关系,以实现人机合作和共生发展,而不是简单地用 AI 取代人类。” 


03 AIGC 技术的科林格里奇困境 


当我们惊讶于机器人越来越“聪明”之时,也不可忽视人工智能给人类社会带来的道德危机和合规风险。英国技术哲学家大卫·科林格里奇在《技 术的社会控制》(1980)一书中指出:一项技术如果因为担心不良后果而过早 实施控制,那么该技术很可能就难以爆发;反之,如果控制过晚,已经成为整个经济和社会结构的一部分,就可能走向失控,再来解决不良问题就会变得昂贵、困难和耗时间,甚至难以或不能改变。这种技术控制的两难困境就是所谓的科林格里奇困境(Collingridge’s Dilemma)。{资料来源:方兴东,顾烨烨 . ChatGPT 的治理挑战与对策研究—智能传播的“科林格里奇困境”与 突破路径 [J]. 传媒观察,2023(3):25-35.}


以 ChatGPT 为代表的 AIGC 技术的治理问题,就是一个我们今天迫切需要解决的科林格里奇困境。ChatGPT 横空出世,旋即让生成式 AI 的应用规则制定和监管问题成为全球关注的焦点。美国联邦贸易委员会(FTC)主席称, 生成式 AI 将是“高度破坏性的”,FTC 将在该领域进行严格执法。在数据隐私合规领域,意大利数据保护监管机构(GPDP)打响了国别监管的“第一 枪”—GPDP 于 2023 年 3 月 31 日宣布全面禁用 ChatGPT,并禁止 OpenAI 处理意大利用户数据。


监管的连锁反应正在全球范围内发酵。2023 年以来,多国数据保护监管 机构宣布对 ChatGPT 开展调查。4 月 3 日,德国表示也在考虑禁用 ChatGPT。法国、爱尔兰也纷纷采取措施,包括但不限于与意大利研讨执法相关事项, 西班牙则要求欧盟数据保护委员会(EDPB)评估 ChatGPT 隐私相关问题。4 月 4 日,韩国个人信息保护委员会委员长表示正在调查 ChatGPT 的韩国用户 数据泄露情况。同日,加拿大宣布就数据安全问题调查 OpenAI。4 月 13 日, EDPB 决定启动 ChatGPT 特设工作组。 


4 月 11 日,中国国家互联网信息办公室正式发布《生成式人工智能服务 管理办法(征求意见稿)》,这也是我国首次针对生成式 AI 产业发布规范性政 策。而 7 月,经修订的《生成式人工智能服务管理暂行办法》正式发布,并 于 8 月 15 日正式实施。 


与其他新技术一样,AIGC 的发展也伴随着风险,短时间内就带来了虚假新闻、数据安全、隐私风险、学术剽窃、算法安全等一系列问题。新机遇,也是新挑战,当旧的治理范式落伍,治理进入深水区后,更加考验监管的张弛之道。把握发展规律和节奏,全球各国需要协同制定相应的监管政策,带领 AIGC 走出科林格里奇困境。


1. 负责任的 AI:欧美实践与启示 


作为全球数字治理制度建设的风向标,欧美正试图在 AI 治理全球规则的 制定上掌握主动权与主导权。比如,美国政府于 2022 年 10 月发布《人工智能 权利法案蓝图:让自动化系统为美国人民服务》,就应对大数据和人工智能技 术对于美国政治生态的负面影响,提出了人工智能技术应当遵循的五大原则: 

● 建立安全且有效的系统原则(Safe and Effective Systems);

● 避免大数据算法歧视原则(Algorithmic Discrimination Protections); 

● 保护数据隐私原则(Data Privacy); 

● 通知和解释原则(Notice and Explanation); 

● 保留人工评估和选择原则(Human Alternatives, Consideration and Fallback)。 


美国更加偏重于利用人工智能系统的发展在全球经济中保持竞争地 位,并满足国家安全需求。2023 年 5 月 16 日,OpenAI 创始人兼 CEO Sam Altman 出席了美国国会召开的主题为“AI 监管:人工智能的规则”的听证会。他在听证会上提出了一个包含 3 个要点的计划:

1)成立一个新的政府机构,负责审批大型 AI 模型,并对不符合政府标 准的公司进行处理,包括吊销它们的 AI“执照”。

2)为 AI 模型创建一套安全标准,用于评估其风险。AI 大模型必须通过 某些安全测试,例如它们是否能够“自我复制”或是“出逃(摆脱人类控制)”。

3)要求独立专家对模型在各个指标上的表现进行独立审核。


面对 AIGC 对现有监管体系的巨大冲击,欧洲在监管思路上与美国有鲜明的差异。欧盟在数据保护和隐私上较为保守,计划更新即将出台的全面人工智能法规—《人工智能法案》,对生成式 AI 生成图像和文本的智能模型制定限制性规则。同时,欧洲数据保护委员会(EDPB)发出质疑,称 ChatGPT 作为商业产品,利用网络信息自我迭代,应不属于合理使用范畴, 且采用用户个人数据参与模型训练,不符合欧盟颁布的《通用数据保护条例 (GDPR)》。


保守的监管模式虽然有效地解决了信息泄露的问题,但也在很大程度上限制了 ChatGPT 的发展;“鼓励型监管”有利于 AI 技术的进一步研发,但是很可能存在监管力度小、效果不尽如人意的问题。由此可看出,生成式 AI 的监管困难并不在于“监管”,而在于如何让 AI 在有效监管下依然能迸发出创新活力。


2. 中国的规则与治理策略思考 


技术的进步往往是一把双刃剑,我们在看到 AIGC 对社会生产力带来的 巨大推动之外,也需未雨绸缪,充分关注其对社会的多元影响。通用大模型 存在鲁棒性不足、可解释性低、算法偏见等技术风险,以及可能存在数据滥 用、侵犯个人隐私、偏见歧视、寡头垄断、监管失能等方面的经济、社会、 政治风险。中共中央政治局会议指出:“要重视通用人工智能发展,营造创新 生态,重视防范风险。”AIGC 全球治理秩序、规则与规范的建设还远远滞后, 因此,亟须从人工智能系统生命周期治理的角度,制定加强隐私保护、信息 安全、可追溯和可问责的全球治理方案。{资料来源:《AIGC 冲击下的国际技术政治变革》,叶淑兰,中国社会科学网。}


(1)鼓励创新发展,构建规范治理体系 


在中国,2023 年 7 月 13 日中央 7 部委联合发布《生成式人工智能服务管理暂行办法》(简称《办法》),这是全球首部 AIGC 领域的监管法规。除了这部专门的监管法规外,我国在科技发展、网络安全、个人信息保护、互联网信息等多个方面已发布多项法律、行政法规等规范性文件,包括《中华人民共和国个人信息保护法》《中华人民共和国数据安全法》《互联网信息服务算法推荐管理规定》《新一代人工智能伦理规范》,构成了人工智能领域多层级、多角度的规范治理体系。


《办法》统筹了生成式人工智能的发展与安全问题,为我国 AIGC 产业发展提供重要遵循。首先,与 2023 年 4 月发布的征求意见稿相比,《办法》有较大的思路调整,明确了提供和使用生成式人工智能服务的总体要求,内容涵盖技术发展与治理、服务规范、监督检查和法律责任等方面。


其次,《办法》与现有规范一脉相承,延续了此前的监管手段,提出国家坚持发展和安全并重、促进创新和依法治理相结合的原则,采取有效措施鼓励生成式人工智能创新发展,对生成式人工智能服务实行包容审慎和分类分级监管,反映了国家对生成式人工智能更加包容的心态和鼓励发展的态度。


(2)有序开放数据,促进算力资源协同共享 


人工智能需要 GPU 算力、网络及存储等硬件基础设施的全方位支撑。《办法》指出,鼓励生成式 AI 算法、框架、芯片及配套软件平台等基础技术的自主创新,鼓励平等互利开展国际交流与合作,参与生成式 AI 相关国际规则制定。


“大模型时代,得数据者得天下。”大模型训练对于训练数据的数量、质量、结构都有着非常高的要求,而目前产业界在进行模型训练时面临高质量训练数据资源稀缺的问题。训练数据成为影响大模型性能的重要因素之一。《办法》提出:“促进算力资源协同共享,提升算力资源利用效能。推动公共数据分类分级有序开放,扩展高质量的公共训练数据资源。” 


目前,北京、深圳等地已出台不少关于公共数据开放利用的条例,这对于利用公共数据投喂人工智能、发挥数据红利迈出了重要的探索步伐。不过,公共数据的开放范围、质量仍然存在较多阻力,未来需推动有序开放,亟待分类分级,探索更加契合公共数据价值利用的规律和规则。科技企业应重点关注《办法》中的内容审核义务、训练数据合规处理义务、对用户的保护及监督义务、备案义务。


(3)明确责任和义务,平衡创新与安全


生成式人工智能在社会变革中具有重要作用,但它可能存在的数据违法 收集、知识产权侵权、生成虚假信息等问题同样不容忽视。《办法》积极回应生成式人工智能带来的社会问题,明确提供和使用生成式人工智能服务的法律底线。它将生成式人工智能服务提供者明确纳入了网络平台责任的规制范围内。要求不得生成违法内容、防止歧视、尊重知识产权和他人合法权益、 提高生成内容的准确性和可靠性。明确提供者的义务与责任、界定不同环节的要求更有利于降低生成式人工智能的安全风险,提高制度的可落地性。


生成式人工智能的监管是一个复杂的全球性问题,需要监管机构和企业共同努力,制定出更加科学、合理、可行的监管政策和规范。预计未来,中国生成式人工智能有望形成敏捷完善的监管模式,促进 AIGC 可持续创新发展。


1)建立健全敏捷监管机制。监管机构可能会出台更多的法规和规范,强调在对 AI 应用进行分级分类的基础上,不断创新监管工具箱,采取分散式、差异化监管,对 AIGC 的研发和应用进行动态敏捷监管,不断平衡创新和安全之间的关系。


2)企业将更加注重自我监管和合规意识。企业将更加重视 AIGC 的伦理和安全问题,制定详细的规章制度,对 AIGC 算法的设计、开发、测试、应用等环节进行全面监管,确保其符合相关法律法规和道德标准。同时,企业将更加注重员工的教育和培训,以帮助员工增强合规意识和提高技能水平, 准确理解并遵守相关规定。


3)形成多方参与的协同治理机制。在 AIGC 治理方面,政府、企业、学术界、社会组织及公众将更加积极地参与,建立多方参与的协同治理机制,制定更具共识的规则和准则,共同推动 AIGC 技术的发展和应用。


4)建立 AI 伦理风险管理机制。组建伦理委员会,构建 AI 伦理风险管理机制,包括设立伦理委员会、制定清晰的伦理准则和政策,并确保其在技术的各个阶段(预设计、设计开发、部署以及测试和评估)贯穿始终,以应对潜在的伦理风险,打造可信的 AIGC 应用生态。


04 金融机构使用 AIGC 技术的 4 条可能路径 


金融行业具有信息、数据、知识密集型的特性,使 AIGC 天然可以在很多方面提升金融服务的效率。ChatGPT 强大的自然语言处理和生成能力,为金融行业带来了更高效、更准确的信息处理和决策分析能力,同时为金融机构提供了更好的客户服务和风险管理能力,它在金融领域有着广泛的应用潜力,包括客户服务和支持、财务咨询、欺诈检测和风险管理、自动化交易和投资以及信用评估和贷款审批。


1. 全球金融机构踊跃试水 AIGC 


ChatGPT 的大火,让金融行业开始重新审视 AIGC 的价值所在。“当我们思考亲情时,却发现它是一种超越生物学的‘利他’行为。”这句颇具哲思的话来自招商银行信用卡公众号利用 ChatGPT 撰写的营销文章,引发了金融机 构对 AIGC 的踊跃试水。{ 资料来源:招商银行武汉分行,《 ChatGPT 首秀金融界,招行亲情信用卡诠释“人生逆旅, 亲情无价”》。}


AI 已赋能海外金融机构的前中后台,为 AIGC 应用升级筑基。前台业务中,AIGC 已被海外金融机构应用于智能营销、智能客服、智能投顾等领域,摩根大通、摩根士丹利、美国支付巨头 Stripe、高盛等都已纷纷入局 AIGC ;中后台业务中,当前海外金融机构主要基于自身主营业务需要布局 AI 应用。AIGC 一方面有望强化现有的 AI 应用,另一方面有望提升公司的经营效率。此外,金融机构或也有望发挥专业细分领域的优势打造金融类语言模型。


自 2023 年 2 月以来,江苏银行、招商银行信用卡中心等机构陆续披露AIGC 在业务中的具体运用。此外,百信银行、中国邮储银行、泰康保险、广发证券、鹏华基金等机构也宣布接入号称中国版 ChatGPT 的百度“文心一言”。一些机构声称自己将集成“文心一言”的技术能力,推进智能对话技术 在金融场景的应用。


2. 金融机构使用AIGC 大模型的难点


虽然机构对新技术普遍秉持积极态度,但在合规压力巨大的金融行业,是否能完全复制 AIGC 应用在其他领域的效能,还有待商榷和验证。


首先,从组建 AIGC 模型到实际应用,大致需要以下几个步骤:数据采集和清洗、模型训练、模型测试和评估、部署和应用。目前,大模型并不完美,需要不断迭代和优化,才能取得更好的效果。相比较而言,金融领域的 AIGC 应用可能会更加复杂,对数据质量的要求更高,对数据的安全性和合规性等要求更为严格,令不少机构望而却步。


大模型技术研发训练成本仍较高,包括算力消耗、模型训练、训练语料与数据标注等,都是制约银行试水的因素。训练通用大模型是“烧钱”的游戏,从零开始训练一个大模型,所需的成本和时间是大多数企业无法承受的。以 ChatGPT 为例,大模型训练一次的成本为 200 万~1 200 万美元。AIGC 大模型研发需要深厚的人工智能技术沉淀、海量训练数据、持续优化的算法模型与完善的生态体系等,且这项新技术从研发到商业化应用,需较长的时间与高额的资金投入。目前的大模型输出结果仍不够可靠,存在事实性错误, 距离“可使用”还有一定差距。


3. 金融机构使用 AIGC 技术的 4 条可能路径 


技术的发展通常是波浪式前进、螺旋式上升的,面临问题和挑战总是不可避免的。但是,AIGC 技术已是时代大势,大模型将对金融行业的智能化水平和数字化程度产生深刻影响。身处时代洪流,金融机构已大致勾勒出使用 AIGC 技术的 4 条可能路径,如下图所示。

图 :金融机构使用 AIGC 技术的 4 条可能路径 


其一,基于大模型的通用能力,叠加金融客服领域的数据和专业服务经验进行模型预训练。通过模型压缩、小样本训练等方式进一步降低应用成本。对于大多数金融机构而言,自建大模型并不现实。调用通用大模型叠加金融客服领域的数据,可以使模型更加符合金融行业的特点和要求,提高模型在金融领域的适应性和准确性。在数据合规层面,充分重视数据质量问题,从数字化改造的源头进行标准化建设,对数据进行清洗和筛选,设置严格的评估指标和方法。部署模式以专用、自主可控的私有化部署,满足数据保密性和数据所有权的要求。


例如,经过垂直领域定向训练后,客服机器人既能与用户进行多轮对话,让运营智能客服更简单,又能提出具体可行的解决方案,提升复杂问题解决率、人机交互感知和意图理解程度,完成流程自主构建、知识生成等。


其二,在降本增效、场景变革和产品升级维度进行。AIGC 应用场景与产品类型不断丰富,率先从智能客服、智能营销场景切入,逐步拓展应用范围。比如在优化内容生产创意与效率层面,传统获客以互联网营销模式为主,结合 AIGC 技术在自动化生成营销物料的同时,实现千人千面的个性化营销。可探索在投研、研发编程、授信审核及流程管理等方面提高效率,减少基础人员投入。在通用基础能力中引入高级认知能力,整合碎片知识与多样化需求,形成创新的产品化模型与业务解决方案。


其三,数字人打通线上、线下服务场景。虚拟员工和真人员工相辅相成,数字人或将成为银行服务用户的新形态,革新传统银行的人机交互模式。在 AIGC 技术的驱动下,通过构建更有趣的 3D 数字空间、打造线上与线下更好玩的内容互动社区、营造更温暖的金融体验,为用户提供全新的沉浸式数字金融服务。


其四,订阅式付费定制模型。类似 SaaS 付费模式,金融机构选择采购软 件 / 解决方案,按照服务调用次数付费,按照内容生成数量付费。大模型服务提供商按需定制大模型能力,金融机构按需支付相应的服务费。金融机构的成本压力将大幅减轻,支出和收入的比例将得到更好的控制和匹配。


未来,哪些金融机构可能会在 AIGC 的浪潮中胜出?总的来说,拥有数据储备优势的金融机构,或者能构建差异化 AIGC 服务能力、流量场景丰富、已建立较为完善的 IT 系统和 AI 生态、叠加科技和金融专长的机构平台有望脱颖而出。



53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询