微信扫码
与创始人交个朋友
我要投稿
EY Fabric平台:这是EY的全球基础技术平台,它整合了先进的AI能力、强大的数据策略、云超级计算器和高效的AI管理。EY Fabric确保负责任和道德的AI使用,并设定了新的行业标准。
技术平台规模:作为EY技术战略的支柱,EY Fabric加速了道德AI解决方案的开发,并增强了客户业务转型的灵活性。它为AI转型的未来建立信心,帮助创造指数级价值,并增强人的潜力。
EY技术与AI的整合:EY在其所有服务中嵌入了领先的AI能力,利用EY Fabric的可重用技术和数据资产。页面介绍了一些使AI解决方案成为可能的EY技术产品,例如:
EY智能工资聊天机器人:使用ChatGPT在Azure OpenAI上回答员工复杂的工资问题。
EY Canvas AI:汇集了85,000名EY审计专业人员的集体知识,帮助审计团队提供有效的审计策略。
EY Strategy Edge:一个商业智能平台,结合了生成性AI和EY行业经验,提供战略规划核心的成长、风险和韧性考虑的360度视角。
EY.ai EYQ:一个安全的大语言模型(LLM),为EY团队提供生成性AI能力,支持从对话AI助手到产品开发的多种用例。
EY.ai Workforce:结合了IBM WatsonX Orchestrate的AI和自动化以及EY在人力资源转型领域的组织知识,帮助组织创新其人力资源流程。
行业认可:EY因其AI解决方案和能力获得了行业领导者的认可,包括2023年机器学习与智能代理AI卓越奖、2023年国际商业奖、2022年AI技术奖等。
EY在官网上刊发一系列关于人工智能变革理念、AI能力建设、AI合规监管等深度报告和观点文章,本文重点分享其中七篇,推荐阅读:
~~~ #1 ~~~
安永:我们的人工智能观
原文链接:
https://www.ey.com/en_us/ai/platform/our-approach
本文为EY关于人工智能建设理念及其AI平台介绍:
全面AI方法:EY强调采用负责任、以人为本的方法来实现AI的潜力,专注于为所有人创造价值。EY.ai平台结合了EY在战略、转型、风险、审计和税务方面的丰富经验,以及领先的技术平台和AI能力,通过跨技术、商业和学术的生态系统,建立信心、创造价值并增强潜力。
建立对AI的信心:在快速变化的环境中,制定AI战略需要平衡的观点。EY通过EY.ai Confidence Index帮助塑造负责任的AI指导原则和框架,整合了围绕AI的伦理、社会和公共政策考虑。
通过全面AI方法创造指数级价值:EY认为,为了在AI时代蓬勃发展,每个企业都需要重新思考其战略和运营,将人置于转型的中心。EY.ai成熟度模型帮助评估企业的AI采用情况,识别增长机会,并提供清晰的市场定位和伦理合规理解。
增强人的潜力以实现非凡成果:EY相信,当AI能力增强人类智能时,其影响可能是非凡的。AI可以帮助创新工作角色,赋予员工新能力,并扩大集体智能。例如,EY智能工资聊天机器人与微软合作开发,旨在高效处理约50%的工资查询,提升客户人力资源团队的支持,从而现代化工资和员工关怀。
EY.ai平台:作为一个统一的平台,EY.ai整合了多学科经验、领先的AI能力和全面的生态系统,旨在建立信心、创造价值并增强潜力。
~~~ #2 ~~~
四步成功实施大型语言模型
原文链接:
https://www.ey.com/en_us/tmt/strategy-consulting/four-steps-for-implementing-a-large-language-model-llm
EY提供了关于成功实施大型语言模型(LLM)的四步指南:
定义LLM的应用场景:企业应首先确定适合使用LLM的具体应用场景,如低级客户支持、内容创作和文档分析。使用预训练的企业级LLM(如OpenAI的GPT-4)可以提高操作效率,简化多云管理、任务监控、故障排除、测试过程自动化和软件开发流程。
评估AI准备情况:企业需要评估其AI和机器学习(ML)的准备程度,包括AI能力、数据和数据实践以及分析能力。这有助于确保企业在投资前已经准备好,并且能够成功实现项目目标。
选择合适的托管架构:选择适合组织特定需求的架构涉及预处理、中间件和后处理三个关键层。这包括处理数据输入、API调用和输出后处理。
评估成本、数据所有权选项和资源:LLM实施方法的选择会影响复杂性和成本,包括数据收集、摄取和清洗、数据科学家的雇佣以及生产中模型的维护。此外,企业需要考虑对专有数据的控制,这可能对产品差异化和特定业务用例至关重要。
~~~ #3 ~~~
转型势在必行:财富和资产管理领域的生成式AI应用
原文链接:
https://www.ey.com/en_us/financial-services/generative-ai-transforming-wealth-and-asset-management
EY提供的关于在财富和资产管理领域实施生成式人工智能(GenAI)转型的报告,内容要点如下:
GenAI的应用前景:金融服务组织已经将AI整合到核心运营中,但大型和复杂非结构化信息的用例成熟度仍在发展。GenAI作为AI应用的新宠,承诺在执行非结构化内容的信息搜索、检索和综合任务以及内容生成方面提供卓越性能。
GenAI的影响领域:服务运营、销售和营销、法律和风险以及技术是将受到GenAI影响的主要领域。通过优化运营流程和效率改进(包括软件开发)的用例,公司可以实现早期回报,而个性化用户参与和改善客户自助服务体验将带来显著的价值创造。
GenAI在财富和资产管理中的机遇:在一项由EY金融服务实践部门于2023年8月进行的调查中,收入超过20亿美元的财富和资产管理公司的高管或董事总经理被要求评估GenAI对他们组织影响最大的三个领域。客户指出了价值链中的用例,其中alpha生成和财务建议位居首位,其次是客户入职、营销和投资运营。后台运营排名第三。
实施GenAI的关键领域:为了成功利用GenAI的价值,组织必须关注以下关键领域:业务启用和运营策略、基础设施和技术、风险和治理、数据、卓越中心(COE)/AI实验室以及人员和培训。
GenAI的实施挑战:财富和资产管理公司在高度监管的领域运营,需要谨慎部署这项新技术。他们需要考虑的问题包括组织潜在风险,如过早过广地应用GenAI,以及构建和运营这些解决方案的成本。
EY的帮助:EY提供技术前瞻性的金融服务解决方案,帮助客户利用转型的力量。EY的咨询服务采用以人为本、务实、结果导向和伦理的方法来采用AI和智能自动化。
~~~ #4 ~~~
如何驾驭人工智能监管的全球趋势
原文链接:
https://www.ey.com/en_us/ai/how-to-navigate-global-trends-in-artificial-intelligence-regulation
AI监管的必要性:随着生成式人工智能的能力加速发展,包括大型语言模型(LLM)在内的AI系统,以及使用实时地理位置数据、面部识别和高级认知处理的系统,已经将AI监管推到了政策制定者的议程前列。
全球AI监管现状:不同国家和地区对AI的监管态度和方法各异。例如,欧洲一些成员国希望放宽警察使用面部识别技术的限制,而欧盟议会则希望在AI法案中施加严格限制。印度最初反对AI监管,但后来宣布计划对AI平台如ChatGPT进行监管。
AI的积极影响:AI正在改变多个行业,从金融和制造业到农业和医疗保健,通过提高运营效率和重塑工作性质。AI还帮助政府以更低的成本为公民提供更好的服务。
AI的风险:GenAI的风险和意外后果也是真实的。例如,文本生成引擎可能被滥用,语音模仿软件可能足以欺骗银行、工作场所或朋友,聊天机器人可能在测试中作弊,AI平台可能加剧和延续历史偏见,损害个人权利,威胁数据安全,产生错误信息,破坏金融系统,造成全球性混乱。
监管框架:立法者、监管者和标准制定者开始开发框架,以最大化AI对社会的益处,同时减轻其风险。这些框架需要具有弹性、透明度和公平性。
监管趋势:EY分析了八个司法管辖区(加拿大、中国、欧盟、日本、韩国、新加坡、英国和美国)的监管方法,发现了五个统一的领域:核心原则、基于风险的方法、行业通用和特定行业规则、政策一致性、私营部门合作。
政策制定者的考虑因素:在AI政策制定中,需要考虑的因素包括确保监管者具备足够的专业知识,确保政策清晰,以及考虑第三方供应商在AI相关产品和服务中的风险管理政策和合规责任。
公司行动建议:公司领导者应理解AI规则的核心原则,建立强大的治理和风险管理结构,与公共部门官员进行对话以更好地理解不断变化的监管环境。
~~~ #5 ~~~
如何向人工智能灌输信任的价值?
原文链接:
https://www.ey.com/en_us/digital/how-do-you-teach-ai-the-value-of-trust
本文是关于如何在人工智能中嵌入信任价值的文章,主要观点如下:
AI的变革潜力与风险:AI技术的发展迅速,但随之而来的是组织治理和控制的挑战。没有健全的治理和伦理框架,使用AI可能带来严重的运营风险,包括数据技术故障、故意或意外篡改,以及采纳人类偏见等。
建立信任的必要性:组织内部领导者需要对AI系统的可靠性和数据的信任。同时,组织也需要与外部利益相关者建立信任,例如客户、供应商和合作伙伴,他们需要了解与AI互动的情况、使用的数据类型及其目的,并确保AI系统不会未经明确和知情同意收集、保留或披露他们的机密信息。
AI治理和伦理标准:为了获得用户(无论是内部还是外部)的接受,AI系统必须是可理解的,即其决策框架可以被解释和验证。同时,AI系统必须在不断演变的威胁面前保持坚决的安全。
AI风险评估:报告提出了四个条件来评估AI项目的风险暴露:伦理、社会责任、问责和“可解释性”、可靠性。
全面看待AI风险:为了真正实现和维持对AI的信任,组织必须理解、治理、微调和保护AI系统内嵌的所有组件。这包括数据源、传感器、固件、软件、硬件、用户界面、网络以及人类操作员和用户。
管理风险和建立信任的策略:报告提出了一些领先的策略,包括建立AI伦理委员会、制定AI设计标准、进行AI算法清单和影响评估、使用验证工具、提供意识培训和进行独立审计。
~~~ #6 ~~~
安永就以道德和负责任的方式开发和使用AI的承诺
原文链接:
https://www.ey.com/en_us/ai/principles-for-ethical-and-responsible-ai
EY承诺遵循伦理和负责任的AI原则,这些原则包括:
问责制:在AI系统的整个生命周期中,对其影响和产生的输出有明确的所有权。
数据保护:在AI系统中使用数据应符合允许的权利,保持商业和个人信息的机密性,并反映伦理规范。
可靠性:AI系统应与利益相关者的期望一致,并持续在期望的精确度和一致性水平上表现。
安全性:AI系统、其输入和输出数据应受到未授权访问的保护,并能抵御腐败和对抗性攻击。
透明度:提供适当级别的披露,以便利益相关者(包括最终用户)能够理解、评估和正确使用AI系统及其输出。
可解释性:提供适当级别的解释,以便人类操作员能够合理理解、质疑和验证AI系统的决策标准和输出。
公平性:评估所有受影响利益相关者的需求,以促进积极和包容的社会影响。
合规性:确保AI系统及其输出的设计、实施和使用符合相关法律、法规和专业标准。
可持续性:在整个AI生命周期中考虑技术影响,以促进物理、社会、经济和地球福祉。
~~~ #7 ~~~
AI在软件测试中的进化如何成为一场革命
原文链接:
https://www.ey.com/en_us/financial-services/ai-in-testing-from-evolution-to-revolution
本文为EY关于人工智能在软件测试中从演变到革命的观点,主要内容概括如下:
AI在软件测试中的潜力:AI有潜力从根本上改变软件测试。目前,AI主要用于加速和改进现有流程,使测试人员能够更快、更高效地完成任务。
AI在测试中的当前状态:尽管AI在软件测试中的应用还相对有限,但它已经开始在一些低风险的用例中发挥作用,例如使用自然语言处理(NLP)进行自由文本测试设计。
AI实施的障碍:信任、业务知识的细微差别以及工程和支持是提升AI在测试中应用的主要障碍。AI模型可能会因为训练数据不足、有偏见或过于专业化而产生不准确的输出。
未来的机遇:随着AI成熟度的提高,其在测试中的作用将变得更加突出、自主、集成和有影响力。AI将从辅助人类工作转变为自主工作,释放测试人员从事更有价值的测试任务。
现在可以采取的措施:组织现在可以准备迎接未来的重大进步。报告建议使用开源或云技术来加速AI在测试中的应用,并避免技术债务。
~~~ END ~~~
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-07-07
2024-06-24
2024-06-17
2024-06-06
2024-04-02
2024-05-08
2024-06-20
2024-04-27
2024-04-02
2024-05-08
2024-11-21
2024-11-19
2024-11-19
2024-11-19
2024-11-18
2024-11-18
2024-11-12
2024-11-12