微信扫码
与创始人交个朋友
我要投稿
“智能金融”指人工智能(AI)和金融行业的深度融合。与传统的判别式AI小模型相比,生成式AI大语言模型的问世标志着AI与金融融合发展面临新的转折点。当前,大模型已被国内各类金融机构引进,作为提振内部生产力的工具,但尚缺乏面向客户的应用场景。
为积极、稳妥推进大模型在金融行业的应用并释放其巨大潜力,本文为金融机构与监管者提出五项建议。❶ 积极拥抱新技术,加快数字化转型;❷ 紧紧围绕价值创造,先内后外、逐步推进;❸ 着力推动大小模型交互应用,降低成本,提升效益;❹ 高度重视数据和算力,确保模型质量;❺ 切实加强安全风险管理,保障AI大模型有序发展。
——肖钢 中国金融四十人论坛(CF40)资深研究员、中国证监会原主席
生成式AI大模型在金融行业
拥有巨大的应用潜力
“智能金融”指人工智能(AI)和金融行业的深度融合,这一概念最早于2017年国务院经党中央批准发布的我国首个AI规划——《新一代人工智能发展规划》中提出。
自2019年起,我在CF40每年组织专家团队撰写《CF40中国智能金融发展报告》,回顾和探讨AI与金融行业融合发展的相关情况和政策举措。自那以后到现在,我们所说的智能金融应当说主要仍指传统的判别式AI模型,即小模型,与今天讨论的生成式AI大语言模型不同。
大模型的出现标志着AI与金融的结合面临新的转折点。当前,我国从大型银行与股份制银行到证券保险公司的各类金融机构都在进行积极准备,研究应用大语言模型的发展,并将其引进作为内部生产力工具,但大模型目前仍没有真正面向客户服务的应用场景。
麦肯锡在2023年发布的一份研究报告中分析了生成式AI大模型为金融行业、尤其是全球银行业带来的经济价值。据其估算,应用生成式AI大模型每年为企业端(即2B)带来的经济价值为2.6-4.4万亿美元;其中,全球银行业使用大模型可使其每年营业收入提高2.8-4.7%,这一比例高于全球制造业、零售业、旅游业、运输业和物流业等所有其他行业。可见,大模型在金融行业有着巨大的应用潜力。
推进AI大模型在金融行业
应用的五项建议
为积极、稳妥促进大模型在金融行业的应用,我提出五项建议。
智能金融是数字金融的高级形态,这两者之间是相互促进的关系。数字化转型是智能化的前提和基础,而大模型的应用是加快数字化转型的“核动力”。不同于原先的小模型,大模型的应用将为数字金融带来新业态、新模式。
金融机构应全面认识AI大模型应用的紧迫性和重要性,一方面,在找到可落地的、面向客户的应用场景前,不能高估大模型在当前的作用;另一方面,绝不能低估其未来的潜力,须紧跟发展趋势,提前布局、做好准备。
需要指出,中小金融机构在数字化转型中面临诸多困难。有观点认为,大模型的问世或极大加剧中小金融机构与大型机构之间的差距,即所谓的“马太效应”;但也有分析指出,大模型为处于头部的中小金融机构实现“弯道超车”带来了机遇。
如何充分认识大模型为中小金融机构数字化转型带来的机遇和挑战?如何立足其自身资源禀赋、帮助一批有条件的中小金融机构实现跨越式发展?这些问题应该提上日程。
与其他科技应用一样,AI大模型在金融领域的应用也须坚持以客户需求为主导,以业务价值创造为核心。金融行业应着力构建合适的场景,引入AI大模型,根据自身数据对其微调、训练,然后基于试点项目进行使用。
这个过程中,应着眼于业务中的痛点和难点问题,不能为了应用而应用,而是要通过应用大模型创造服务新模式,从而大力降低成本、提升效益,并改善客户体验。目前,各金融机构对应用AI大模型的步骤掌握得比较好,采用了先内部使用、再根据条件延伸至客户服务的做法。
在企业内部应用大模型作为生产力工具时,应引入价值观评测机制。已有一些企业进行了成功的尝试,充分利用AI代理软件作为管家、助手,对于内部员工是否调用大模型、并采纳其得出的结论加以控制。这方面也还需进一步改善。
AI大模型具有“大而强”的特点,优势在于基础性和通用性,但对数据算力要求高,运行维护成本大,专业性也不足。相比而言,小模型的特点是“小而美”,体量小、成本低,易于训练和维护,虽然性能远不及大模型,但在适合的垂直专业领域应用更具优势,银行在风控和客户服务上使用的大部分都是传统模型。
因此,金融机构需建立大小模型协同发展的框架。这样不仅有利于未来大模型的落地应用,也可以进一步促进小模型的发展。小模型能以较低的成本实现大模型的部分功能,我们可以增强小模型的性能,以满足具体专业的应用需求,同时提升智能金融服务整体水平。
此外,大小模型交互使用、共生共融还有利于模型依靠反馈进行强化学习,促进模型迭代升级。金融机构需研究大模型的技术栈和传统AI模型的技术栈如何融合发展,开发相关技术平台与框架。未来,大小模型的交互使用将是长期趋势。
当前,AI大模型训练主要依赖于互联网公开的文本数据,其中,中文语料目前占比依然较低,训练模型所使用的大部分中文语料来自海外、并不准确。我国对此非常重视,权威部门已在着手建设中文语料库,但仍需时间。
因此,金融机构在训练、部署大模型时,须对数据来源进行严格的合规管理,以确保数据质量;要积极采用数据编织技术,运用分布式数据管理架构,集成不同来源的数据,提供值得信赖的数据基础,从而提高生成式AI模型的准确性。
未来,当人类自印刷机问世以来所出版的文本、书籍等各类数据都已经被使用时,模型训练就会开始面临数据短缺的瓶颈。因此,自主可控的合成数据,即计算机模拟数据,将拥有广阔的发展空间。合成数据可以解决数据短缺的问题;同时,模拟数据不涉及隐私保护和数据安全风险;此外,发展自主可控的合成数据产业还将有利于解决数据可能带来的偏见以及算法歧视等问题。
此外,考虑到金融机构当前算力不足,或可考虑建立算力资源池,探索多种图形处理器(GPU)的统一调度,从而在一定程度上对冲国外高性能GPU芯片的断供风险;同时,开发算法共享机制,规范算力外包,促进数据协同,加强基础设施服务,尤其是要赋能中小金融机构。让所有中小金融机构都去建设算力、研究算法是不太现实的,因此相关基础设施服务的问题有待研究。
未来,AI技术恶意使用将成为趋势,也将以更快的速度增长,不仅会放大现有风险,还会引入新的风险。已有金融机构受到AI恶意使用的威胁。
为应对这一挑战,金融监管部门应制定AI大模型在金融行业应用的准入标准,并实施备案管理。网信办对进入意识形态领域的模型已要求进行事先风险评估。目前,国内厂商已推出了以“八大模型”[1]为代表的不少AI大模型,鉴于金融行业的重要性,上述模型如果要进入金融业,也应对其进行事先风险评估。
此外,金融机构应将AI相关风险纳入整体风险管理和合规管理框架中,目前这方面做得还不够。据我了解,国外有的大型银行已将AI模型风险纳入整体风险管理框架,并成立了AI模型管理委员会,建立了专门的管理平台、流程和规范。我国金融机构也应对AI大模型相关风险实行分级分类管理,对模型数据参数进行定期评估和交叉验证,并使用压力测试,在各种情景下进行模拟校验,及时披露模型决策机理、运行逻辑和潜在风险,防范算法歧视,提升算法的可解释性、透明性与公平性。
目前,我国金融机构在防范欺诈上还在“单打独斗”。不少金融机构都遇到过遭遇AI欺诈的数据,但仅掌握自身数据远远不够。因此,应建设覆盖全金融系统的、快速共享的反欺诈数据交换平台,开发用于欺诈检测的AI模型,所谓“道高一尺、魔高一丈”,我们要用AI来对抗AI欺诈。中小金融机构也可从这样的公共数据服务平台中获益,而无需自行开发提升反欺诈模型能力。
[1] 即百度的文心一言、抖音的云雀大模型、智谱 AI的GLM 大模型、中科院的紫东太初大模型、百川智能的百川大模型、商汤的日日新大模型、MiniMax的ABAB 大模型以及上海人工智能实验室的书生通用大模型。
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-04-30
2024-07-18
2024-07-04
2024-07-10
2024-06-11
2024-06-20
2024-03-29
2024-07-04
2024-06-29
2024-07-10