AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


毕马威(KPMG)关于生成式AI及人工智能安全与监管的方案介绍
发布日期:2024-03-31 11:29:38 浏览次数: 1837


KPMG(毕马威)关于生成式人工智能(Generative AI)的展望与其服务概述:

  1. 生成式AI的定义:生成式AI是一种革命性的技术,它以创新的方式吸引用户并生成具有更深层次洞察力的内容。这项技术正在开辟全新的途径,用于改善体验、提供新的价值流和转变商业模式。

  2. KPMG的服务:KPMG结合其深厚的行业专业知识和先进的技术技能,帮助商业领袖以值得信赖的方式加速AI的价值实现,从策略和设计到实施和持续运营。

  3. KPMG的承诺:KPMG致力于维护与公司价值观和专业标准一致的AI解决方案的道德标准,并促进客户、员工、社区和监管机构的信任。

  4. AI的实际应用:KPMG通过测试、改进、验证和推出新的AI解决方案,为客户和公司的工作方式带来革命性的变化。

    1. 税务和财务报告的AI应用:KPMG强调了生成式AI在税务和财务报告中的新机遇,以及如何通过这项技术提高创新和优化潜力。

    2. 供应链中的AI应用:KPMG提到了如何利用生成式AI提高供应链性能,通过提高生产力来实现更大的回报。

    3. 人力资源(HR)和劳动力转型的AI应用:KPMG强调了HR在从生成式AI中创造价值方面的关键作用,以及只有通过劳动力转型才能实现技术的真正运营效益。

    4. AI法规和信任问题:KPMG讨论了AI/生成式AI法规的发展方向,以及如何展示“可信AI系统”。

  5. 生成式AI的挑战:KPMG提到了生成式AI的快速采用和领导者需要重新审视其业务的各个方面,尽管存在重大的未知数。

  6. KPMG的AI服务:KPMG提供从策略和规划到实施和激活的AI服务,以及如何处理与生成式AI相关的风险,包括信任、合规、安全、隐私和伦理问题。

  7. 工作的未来:KPMG帮助客户自动化常规任务,释放资源以专注于高价值的战略倡议,并提供与AI为中心的环境相一致的劳动力塑造策略。

  8. 变革管理:KPMG协助客户通过有效的变革管理、培训、运营模型设计和治理,无畏地采用和整合生成式AI。


KPMG(毕马威)在其官网刊发一系列关于生成式人工智能在商业领域的方案及可信AI、AI安全与监管相关内容。本文重点分享其中六篇文章,推荐阅读:


~~~ #1 ~~~

可信赖的人工智能服务:用可信的方法释放人工智能的巨大潜力

原文链接:
https://kpmg.com/us/en/capabilities-services/ai/trusted-ai.html

KPMG关于可信AI服务的介绍,要点总结如下:

  1. 可信AI的重要性:人工智能正在改变我们的世界,影响日常生活、商业和社会的许多方面。KPMG帮助组织利用AI的变革力量,包括其道德和负责任的使用。

  2. AI整合的风险管理:随着AI项目的增长,潜在的风险和挑战也在增加。这些风险包括信任风险、合规风险、安全和隐私风险、价值风险以及项目速度的风险。

  3. 可信AI服务内容

  • 策略:帮助组织评估其在可信AI旅程中的位置,并创建策略和路线图以增强潜力。

  • 治理和框架:建立和实施AI治理框架、控制、运营模型和技术。

  • 模型管理:建立领先的模型管理结构、流程和技术。

  • AI安全:评估和开发AI安全和隐私策略、流程和工具。

  • AI保障:测试、审查证据并报告关于负责任使用AI技术的管理过程、控制和声明。

  • KPMG的优势:KPMG在法规、风险、安全、隐私等关键领域的深厚经验,以及在AI、机器学习、数据分析、网络安全和风险方面的行业认可领导地位,有助于在可信AI领域加速价值实现。

  • KPMG的AI安全服务:KPMG被公认为AI和智能自动化服务的领导者,并在IDC MarketScape评估中得到认可。

  • KPMG的行业和领域经验:KPMG具有深入的行业和领域经验,能够理解特定于客户业务的风险。

  • KPMG的战略联盟和投资:KPMG拥有强大的战略联盟和投资网络,提供企业深度和精品灵活性。



  • ~~~ #2 ~~~

    生成式人工智能:令人振奋的新商机

    原文链接:
    https://advisory-marketing.us.kpmg.com/speed/generative-ai.html

    KPMG关于生成式人工智能的介绍,主要内容概括:

    1. 生成式AI的潜力:生成式AI是AI技术的一大进步,它提供了创新的方式与用户互动和生成内容,有潜力改善用户体验并创造商业优势。

    2. 实施生成式AI的基础:尽管生成式AI正在迅速改变领域,但成功的实施仍需要一个可靠的策略和有说服力的商业案例,以及包括数据科学家、软件工程师和行业专家在内的专业人才。数据质量、安全性、合规性和风险管理仍然至关重要。

    3. KPMG的服务:KPMG拥有在这些领域经验丰富的专业团队,无论是刚开始探索生成式AI还是准备实施,KPMG都能提供帮助。

    4. KPMG如何帮助客户

    • 策略和规划:帮助组织明确生成式AI的愿景。

    • 实施:KPMG的数据科学家和软件工程师在AI和可能集成的平台方面有丰富经验,注重可靠性和数据质量。

    • 风险缓解:KPMG的负责任AI实践专注于处理生成式AI带来的风险,包括声誉损害、知识产权盗窃、隐私或合规违规和伦理问题。

  • KPMG团队:KPMG拥有数据科学家、分析专家、软件工程师、网络安全专家、DevOps人才以及具有行业和专业知识的专业人员,他们具备将AI解决方案与领先平台集成的丰富经验。

  • 战略联盟:KPMG与关键技术领导者建立解决方案合作,并建立了战略联盟生态系统,以便为客户提供量身定制的生成式AI解决方案。

  • KPMG可信AI:KPMG的可信AI方法包括有经验的治理、风险和合规(GRC)专业人员、高技能的AI技术专家和数据科学家、先进的AI工具和加速器,以及与领先的AI解决方案提供商的强大行业联盟。



  • ~~~ #3 ~~~

    调研报告:负责任AI和AI风险的挑战

    原文链接:
    https://advisory-marketing.us.kpmg.com/speed/ai-survey-23.html

    KPMG于2023年3月发布《2023年美国AI风险调查报告》,以下是报告要点总结:

    1. AI风险的重要性:随着AI解决方案在各个流程和产品中的广泛应用,AI风险可能被低估。KPMG通过调查多个行业的高管,了解他们对AI和预测分析模型相关风险的看法。

    2. 关键统计数据

    • 数据完整性、统计有效性和模型准确性是企业正在积极管理或减轻的前三个风险。

    • 许多组织对AI和预测分析模型没有明确的定义,尤其是在传统行业如工业、能源和自然资源领域。

    • 预计AI和预测分析模型的使用将会增加。

    • 许多受访者愿意购买快速诊断工具来评估现有AI模型的风险类别和潜在影响。

    • 受访者报告了一定程度的监管监督,但缺乏熟练资源、预算限制和工具是风险审查过程中最大的限制因素。

    • 大多数没有正式AI风险管理功能的公司计划在未来1-4年内建立这样的功能。

    • 预计在未来1-4年内,对AI模型的审计将成为一项要求。

  • AI模型风险:调查询问了六种具体风险,包括数据完整性、统计有效性、模型准确性、透明度、公平性和弹性/可靠性。这些风险按照受访者认为可能对业务产生负面影响的顺序排列。

  • 风险管理责任:C级高管更多地参与提供方向和创建新的分析流程,但模型的实施、精炼和风险审查留给了管理层。相对较少的C级高管直接参与或负责风险管理和数据/模型治理策略。

  • 监管监督:73%的受访者报告了对其模型的一定程度的监管监督。金融服务和医疗保健/生命科学领域的监管监督最多。

  • 负责任的AI:负责任的AI是一种设计、构建和部署AI系统的方法,以安全、可信和道德的方式加速价值实现。KPMG的负责任AI提供包括公平性、可解释性、责任、可靠性、安全性、隐私和安全性在内的八个风险指导原则。

  • KPMG的服务:KPMG致力于帮助客户正确实施负责任的AI,结合深厚的行业经验、现代技术技能、领先的解决方案和强大的合作伙伴生态系统,帮助企业领导者以可信的方式利用AI。



  • ~~~ #4 ~~~

    《毕马威生成式AI与网络安全调查报告》

    原文链接:
    https://kpmg.com/us/en/articles/2023/using-gen-ai-strengthen-cybersecurity.html

    KPMG关于如何使用生成式人工智能加强网络安全的报告,以下是报告内容要点:

    1. 生成式AI在网络安全中的预期:公司已经在越来越多的功能和任务中使用人工智能(AI)工具,尤其是机器学习。生成式AI因其强大的自然语言处理能力和非技术员工的使用潜力,被认为将使AI更加易于访问和广泛采用,包括在安全应用中。

    2. 调查结果:KPMG在2023年3月对300名全球高管和高级管理人员进行了调查,发现他们普遍认为生成式AI是一种可能产生变革的技术。三分之二的受访者预测,生成式AI将在接下来的三到五年内对公司产生重大影响,其中31%的人预计对企业风险管理(包括网络安全)产生高影响,64%的人预计产生中等影响。

    3. IT专业人士的期望:超过70%的IT专业人士表示他们已经优先考虑网络安全应用,63%的人认为生成式AI在网络安全中可能对组织产生最大影响;64%的人预计在未来六到十二个月内使用生成式AI。

    4. 风险与机遇:尽管IT和业务领导者意识到实施生成式AI存在中到高风险(92%的受访者),但他们也对能够应对和减轻风险充满信心(6月调查中有77%的受访者表示有信心)。

    5. 生成式AI在网络安全中的应用机会:报告指出,生成式AI在网络安全中有多个应用机会,包括取证和响应、威胁检测和快速响应、内部威胁检测、漏洞管理以及攻击面管理。

    6. 第三方供应链管理:生成式AI可以用于自动化对第三方供应商的风险评估过程,帮助公司更好地管理与第三方供应商相关的风险。

    7. 采用障碍:尽管生成式AI技术充满希望,但CISO和其他业务领导者认识到其采用存在重大障碍。最大的担忧包括机密和客户数据的暴露、知识产权控制的丧失、不准确的结果以及故意甚至犯罪性滥用(例如制作深度伪造以进行欺诈)。

    8. 成功部署生成式AI应用的步骤:KPMG提出了五个成功部署生成式AI应用的步骤,包括确定特定用例、收集相关数据、训练模型、测试和优化以及集成、监控和扩展。

    9. KPMG的服务:KPMG可以帮助客户应用五步方法,确保生成式AI实施顺利,并优化正在进行的计划。KPMG的团队在技术、人员、流程和合作伙伴方面的多维安全挑战方面具有专业知识和经验,可以帮助客户从生成式AI中提取最大优势,同时防范潜在风险。



    ~~~ #5 ~~~

    深度观察:AI/生成式人工智能监管将往何方?

    原文链接:
    https://kpmg.com/us/en/articles/2023/where-will-ai-gen-ai-regulations-go.html

    KPMG关于人工智能和生成式人工智能监管趋势的观察,以下是内容要点:

    1. 监管现状:监管机构已经明确表示,现有的法规适用于“自动化系统”,包括AI和GenAI,并涵盖设计、开发、部署和持续监控的全生命周期。

    2. 监管复杂性:随着AI技术的广泛应用,监管方法可能会在州、联邦和全球层面上发展和分化,增加了AI合规的复杂性。同时,与系统输入输出以及客户影响相关的其他发展领域(如公平性、隐私和网络安全)的监管预期可能与AI预期重叠,增加了监管审查的复杂性。

    3. 关键监管活动:文章提到了多项关键的立法和监管活动,包括美国联邦贸易委员会(FTC)、消费者金融保护局(CFPB)、白宫、国家标准与技术研究院(NIST)、证券交易委员会(SEC)等机构的行动。

    4. 监管主题:监管关注的主题包括风险管理、公平性/消费者伤害、目的限制和数据最小化(隐私)、多机构方法(全政府方法)、数据和系统的安全保障、风险管理和治理等。

    5. AI风险管理:文章强调了在设计、开发、部署和管理AI解决方案时管理风险的重要性,并提出了四个支柱和代表性行动,包括建立AI治理框架、合规和法律风险管理、了解AI战略和路线图、监控使用和部署。

    6. 2023年KPMG生成式AI调查:调查显示,业务领导者预计在数据隐私方面将有最多的监管行动,而在版权和偏见方面预计较少。大多数企业不会等待或只会暂停3-6个月来监控监管环境,只有四分之一的企业表示会等待更长时间。

    7. KPMG的服务:KPMG提供帮助,包括建立AI治理框架、开发政策、教育利益相关者、建立透明度原则和政策、将AI纳入模型风险管理(MRM)框架等。



    ~~~ #6 ~~~

    研究报告:伪造内容(fake content)正在成为一个真正的问题

    原文链接:
    https://kpmg.com/us/en/articles/2023/fake-content-becoming-real-problem.html

    KPMG关于深度伪造(Deepfakes)的研究报告,以下是要点概括

    1. 深度伪造的威胁:随着人工智能技术的发展,创建假内容变得比检测更容易。深度伪造是一种社会工程手段,用于欺骗个人或敏感信息,越来越被用于针对公司、机构和主权国家的攻击。

    2. 深度伪造的定义:深度伪造是通过使用生成式AI(如生成对抗网络GANs)处理信息、创建模式并学习,从而操纵和替换现有图像、视频或音频中的特定个体的面部或声音。

    3. 深度伪造的影响:深度伪造内容的滥用可能导致广泛的社会经济影响,包括财务、声誉、服务和地缘政治等方面。

    4. 深度伪造的检测挑战:尽管有超过100,000个AI模型可以创建深度伪造,但只有约3,000个能够正确识别深度伪造。大多数模型只能识别简单的伪造内容。

    5. 深度伪造作为企业风险:深度伪造已成为董事会层面的问题。KPMG的一项调查显示,92%的受访高管认为实施生成式AI的风险是中等到高度重要的。

    6. 网络安全和缓解策略:随着技术创新的加速,检测和防御的机会也在扩大。然而,攻击者也在利用这些进步。深度伪造在孤立情况下只是网络安全问题的一小部分,但随着操纵内容攻击的增加,首席信息安全官(CISO)和他们的团队正在关注这一问题。

    7. 缓解策略和相关成本:从缓解的角度来看,深度伪造技术的主要问题是检测所需的资金,包括维护适当的计算能力、取证算法和审计流程,以及使用这些工具所需的人才。

    8. 深度伪造在现实世界中的应用:深度伪造在社交媒体平台上的欺诈行为多种多样,包括使用自动化账户传播虚假信息,以及通过深度伪造的声音进行电话欺诈。

    9. 采取行动:企业需要考虑新的过程、工具和策略来更好地保护其系统、数据和基础设施。这包括发展强大的网络安全文化、加强身份确认、提高组织风险情报、采用设计安全的方法,以及投资于更好的预测、检测和响应技术。

    报告最后指出,意识和适应性是关键。AI的广泛前景令人兴奋,但这些技术现在也可用于恶作剧甚至更糟糕的目的。安全组织需要跟上网络犯罪分子使用这些工具的速度。

    ~~~ END ~~~


53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询