AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


腾讯云生成式AI产品解决方案深度分析 2024
发布日期:2024-07-09 08:36:31 浏览次数: 2069



 

腾讯云生成式AI产品解决方案

(一) 基于生成式AI的腾讯云产品架构升级

(二) 腾讯云完善的产品矩阵,满足不同路线客户需求

1. 路线一 标准软件

(1) 腾讯乐享AI助手

    落地背景及挑战

在企业知识管理、培训学习、办公协同场景中,存在着大量的内容生产、内容流转、内容消费诉求,传统的知识管理或培训平台存在着内容生产门槛高、内容生产效率低、内容获取链路长、内容利用率低等问题,导致管理成本高但收效甚微,让企业知识从“低质量”走向“不可用”。

企业应用面临的挑战包括:1. 实现问答能力与企业内部知识的强关联;2. 生成不同场景、格式的内容需要不同模型、方向的训练方案。

产品方案

方案价值

①智能问答:

搭建大模型与企业内部知识的桥梁,无需训练模型即可快速搭建企业AI问答专家,可理解企业知识后以自然语言直接回复成员问题,并列出相关文档链接作参考。

对比传统搜索的优势:保留知识搜索的权限特性,改变传统冗长的检索->浏览->筛选->理解的信息获取链路,提高内容曝光,让每次知识获取时间减少5-10分钟。

对比传统问答的优势:无需管理问答对,直接基于文档、视频问答;可通过反馈-提醒修订-后台跟进分析的工作流,促进知识迭代;乐享千人千面的权限管理,AI也能对拥有不同权限的提问人给出不同的回答。

②智能写作:

提供适配企业业务内容生产的写作大模型,让模型一方面能够掌握足够多的各领域知识,提供创作灵感;另一方面能够根据明确指令,对文档内容进行总结、缩写、扩写或纠偏,如撰写大纲、方案续写、会议纪要等。降低业务内容创作的门槛,提升办公协同内容输出的效率。

③智能生成:

让模型掌握跨职责的生产能力,如培训中的生成考题场景,通过训练专门的出题大模型,让模型既理解业务知识,又按规则出题,成为一个懂业务的培训出题专家,解决传统的出题模式中各方资源协同和生产困难的挑战。腾讯乐享AI助手,让知识生产、学习、管理全生命周期提效。

(2) 腾讯云AI代码助手

落地背景及挑战

随着人工智能的爆发,软件工程也转向智能化,而AI代码助手作为公认的高频高价值场景先行一步。

企业落地的挑战包括:

1、 企业用户关心代码安全。尤其在金融等高合规要求行业,随着大模型落地的不断推进,企业越来越关注如何平衡大模型落地收益和潜在合规风险。

2、 业务场景要求多模能力,企业内部不同业务场景对多种个性化模型提出需求,同时需保证应用侧无缝对接。

3、 企业决策需要效果度量。企业用户更关心投产价值如何衡量,期待通过数据监控手段,保障模型训练效果,推动持续改善提升。

4、企业效能提出全场景覆盖。企业希望在研发过程中尽可能多的引入较为确定可行的AI加持场景,覆盖多个智能研发场景,从而提升工程质量,达到效率提升最大化。

产品方案

方案价值

腾讯云AI代码助手是依托于腾讯模型与训练底座,精准面向企业客户需求打造,支持多模态、安全合规、流畅高效、成本可控的专业AI编程提效工具。

①保障代码安全(Security)依托腾讯云天御安全审核模型三重防护能力,在语料防护和Reasoning、微调等阶段进行

主动预防:确保输入内容正常合规;确保回答问题在训练内容范围之内,减少回答幻觉;确保不合规问题能够被拒绝回答。部署后,和企业安全团队积极配合,只选取企业内部认证合规的私有语料进行进一步训练,打磨出符合企业要求的代码模型。

②支持多模能力(MaaS)

基于具备多模管理能力、支持企业私有化部署的专业训练平台--腾讯云TI-ONE平台进行训练和推理优化,在代码对话、单元测试场景基于行业模型进行指令对齐和强化学习、推理优化,同时对真实场景下反馈的badcase进行调优。

③提供数据看板(Analysis)

企业可通过数据看板进行衡量,通过效能看板密切关注代码生成率、采纳率、QPS、生成耗时等关键指标,对产品的优化起到监督反馈效果。

④覆盖丰富场景(Full)

覆盖代码补全,技术对话,单元测试和代码诊断等关键编码阶段应用场景。

(3)腾讯企点营销云AI助手

落地背景及挑战

企业数据分析主要痛点:懂业务的人不会用分析工具、懂分析的人不一定了解业务、海量数据人工挖掘效率低、数据洞察依赖主观经验不够严谨。

产品方案

方案价值

基于腾讯云行业大模型在分析领域的应用服务。用户可以通过自然语言对话,实现找数查数、数据结论解读、智能归因及异常诊断,旨在企业提供专业、高效、易用、可信的智能分析服务。

①专业

结合行业知识在营销分析领域微调后的大模型,具备专业分析师思维,覆盖90%数据分析场景,及业界领先的问题识别率,客户个性化知识一学就会,更懂业务。

②高效

智能归因自动识别指标异动,海量数据也能快速定位影响因子,异常诊断可及时下发一线业务执行策略,定时看板解读任务和一键生产报告功能,轻松搞定周报日报。

③易用

对话式交互,只要懂业务,就可以实现数据查询及分析,根据业务数据推荐分析问题和分析指标,小白用户轻松上手,分析结果自然语言总结,不懂图表也能获得关键业务信息。

④可信

针对复杂问题,模型推理步骤可视化,分析结果对应配置参数/SQL可查看可验证,分析结果生成配置页面可查看可调整。

2. 路线二-标准模型能力增强

(1) 腾讯云大模型知识引擎

 落地背景及挑战

大模型技术不断深化,加速生成式AI应用落地,推动新一轮的产业变革,IDC报告显示,知识管理、会话类应用目前最受企业者关注及青睐。然而,大模型到知识应用落地门还存在一定门槛,在典型知识服务应用包括知识问答、业务办理、知识总结等均有着不同程度的痛点。

①企业文档知识多样化,图文并茂,排版复杂用户问答效果及体验不可控。

②流程知识复杂度高,维护成本高自动化接待难度大。

③不同行业不同场景对于知识总结、信息提取存在差异化诉求。

面向这一背景,打造基于大语言模型的企业级知识应用构建平台,提供提供开箱可用的应用模版、可被集成的原子能力API,降低大模型接入到企业知识管理及会话应用场景的门槛,推动大语言模型在企服场景的应用落地。

产品方案

方案价值

①擅长处理企业级多模态复杂知识,支持最全常用格式与上百种文档场景,在表格问答、复杂公式、图文关联输出与数学计算等复杂场景,可满足企业知识库管理维护的多样化、专业性处理要求。

②依托OCR大模型解析引擎、多模态大模型、业内首个语义切分大模型与基于混元大模型技术的行业大模型,全链路解决复杂文档的解析、切分、检索、推理、生成等业界难题,端到端问答效果业内领先。

③多模态交互模式丰富,应用端支持多种输入、输出格式,提升交互体验。

易用

①使用门槛低,提供开箱可用的应用模板和可被集成的原子能力API两种便捷使用方式。

②工具链完善,支持自定义模型选择、角色设定、提示词自动优化、知识库管理及维护。

③一站式流程,支持对话测试-修正-发布-反馈增强的一站式处理。

(2) 向量数据库

落地背景及挑战

利用LLM和向量数据库,企业可以构建高效、智能的知识库系统,实现快速检索、语义理解和个性化推荐,提升企业知识管理和应用效率。

①挑战:

文档预处理、向量化门槛高,业务接入成本高,接入效果差。

产品方案

方案价值

(3) 腾讯云Cloud Studio

落地背景及挑战

①传统的应用开发常常面临:1、资源的限制 2、环境配置的复杂且不兼容问题

产品方案

方案价值

Cloud Studio,提供即开即用的在线开发环境,满足AI场景下大模型运算、图形计算等场景对GPU算力工作空间的需求,实现AI原生应用开发中提效降本与高效协作,对于教育行业创新应用与教学成果快速迭代、上线更具有长效价值。

3. 路线三-定制化模型精调训练

(1) 腾讯云TI平台

落地背景及挑战

大模型驱动“智慧涌现”,AI大模型的发展与运用,正在逐步贯穿到企业的设计、研发、生产、营销、服务全流程,助力企业创新的同时,帮助员工提效,加速云智一体进程,但是如何将大模型快速应用到自己的业务场景中仍然面临大量挑战。

第一,缺乏高质量行业知识数据。通用大模型在逻辑推理、常识问答等场景下有较好的表现,但是在垂直行业业务场景下效果往往差强人意,需要有大量高质量的行业知识数据,通过大模型训练优化,提升大模型在具体垂直行业业务场景下的能力。

第二,大规模并行训练稳定性要求高。由于大模型的训练参数量、数据量大,在进行大模型训练时,需要大量的GPU训练资源且训练周期长,对训练平台的断点续训、故障自动隔离、自动容错,异常感知等底座能力考验极大。

第三,计算资源少。大模型的训练和推理,对计算资源和存储资源有很高的需求,大规模分布式训练需要高效的资源调度管理系统,减少节点资源碎片,提高调度成功率,并需要灵活的任务优先级配置策略,进一步提升资源利用率。

产品方案

方案价值

①为客户提供丰富高质量的基底大模型。

腾讯云TI平台内置腾讯自研的超千亿参数规模混元大模型,其使用超2万亿token预料优化预训练算法及策略,并改进了注意力机器、开发思维链新算法,在多轮对话、知识增强、逻辑推理、内容创作等方面有优势能力。同时,基于大量垂直行业的业务数据,我们精调训练出金融、医药、教育、汽车等多个行业的行业大模型,降低了不同行业数据的彼此干扰,提升模型在行业垂类任务的性能。

②完善的工具平台支持“简单、稳定、高效”的大规模训练。简单,暨腾讯云TI平台为用户提供简单的大规模训练流程,内置精调物料,一键启动精调任务,最快仅需5步即可完成大模型精调落地。稳定,通过机器故障自动迁移、异常POD驱逐重新调度、自动断点续训,保障大模型训练任务的稳定性。高效,通过拓扑感知调度、gang调度策略,任务优先级配置策略等技术提高资源利用率,并通过自动注入通信配置、网络拓扑等相关参数提升开发效率和问题排查效率。

③提供算力、存储、计算多重优化加速能力。

通过自研的Angel加速框架,通过CPU&GPU异步调用提高吞吐,通过缓存定长和池化,提升参数支持规模,优化显存;自研大模型计算和并行优化方案,结合编译和手工优化,解决低配显存显卡无法训练超大模型问题;为用户提供三重加速优化。

(2) 腾讯云异构计算平台

落地背景及挑战

背景:AI已经进入了一个高速发展期,模型参数达到万亿级,在训推场景,对算力的规模、性能、容错、性价比提出前所未有的挑战。

①大模型训练场景痛点:

大模型AI场景下,对于训练效率要求非常极致,单纯堆叠计算节点存在“木桶效应”,存储、网络一旦出现瓶颈就会导致运算速度严重下降。

②推理场景痛点:

AI 推理是前向传播的用户请求计算过程;需要寻求低时延、大吞吐、低成本、低功耗之间的平衡。

③部署、易用的痛点:

AIGC 浪潮下,AI 应用部署和使用需求激增。因 GPU 等异构芯片的特殊性,自身部署使用难度大,涉及到选型、驱动安装、软件栈适配、版本兼容、应用部署等多重问题,中小企业及开发者望尘莫及。而且涉及到安全隐私问题,客户要求私有化或本地化部署,来运载自己的大模型及相关业务。

产品方案

方案价值

①极致性能:

搭载业界前沿芯片与腾讯自研 XPU 芯片;自研智能网卡,虚拟化零损耗,性能媲美物理机;支持业内唯一100GVPC 和独家3.2T RDMA 网络;定制硬件,针对场景特殊优化,性能领先业界,万亿参数大模型训练时间缩短 80%。

②极致易用:

一键安装 GPU 驱动;基础环境自动化部署;提供批量任务管理、资源管理工具。支持多种AI环境快速部署,如ChatGLM-6B、 StableDiffusion等。

③极致兼容:

实例丰富度全球领先;统一的软件接口 TACO,屏蔽底层硬件差异,保障平台稳定;云原生网络架构,实现训练推理混部。

④极致降本:

支持 vGPU 按需使用;qGPU 容器级资源切分,颗粒度达 5%,提供 GPU 算粒级弹性服务。

⑤规模领先:

腾讯云的算力调度总规模超过1.5亿核,并提供16 EFLOPS(每秒1600亿亿次浮点运算)的智算算力。未来,新一代集群不仅能服务于大模型训练推理,已实现全国90%+的大模型客户覆盖度,还将在自动驾驶、科学计算、自然语言处理等场景中充分应用。

4. 模型底座

(1) 腾讯混元大模型

腾讯混元是腾讯基于全链路自主可控技术打造的生成式大模型,通过持续迭代和实践,积累了从底层算力到机器学习平台再到上层应用的完整自主技术。目前,腾讯混元大模型参数量已达到万亿,tokens数量超过7万亿。

算法层面,腾讯混元大模型率先采用混合专家模型 (MoE)结构,并在这个过程积累大量自研技术,其中包括创新的专家路由Routing算法、独创的MoE Scaling Law机制以及合成数据技术,实现模型总体性能相比上一代Dense模型提升50%。

 训练和推理框架上,腾讯自研Angel机器学习平台面向大模型训练,在预训练、模型精调、强化学习多个阶段进行优化,相比业界开源框架,可以用更少的资源训练更大的模型,训练速度是主流框架的2.6倍;面向大模型推理,Angel机器学习平台实现成本相比业界主流框架下降70%,支持国产主流硬件的适配。

算力层面,腾讯拥有自研星脉高性能计算网络,使用领先的3层网络架构,可支持单集群十万卡规模,具备业界最高的3.2T通信带宽,可提升40%的GPU利用率,节省30%—60%的模型训练成本,为AI大模型带来10倍通信性能提升。此外,星脉网络中的交换机、光模块、网卡均是腾讯全链路自研。

基于扎实的基础能力积累,腾讯混元大模型积极推进相关应用落地,让大模型创造更多价值。目前腾讯内部超过600个业务及场景已接入测试,腾讯旗下协作SaaS(软件即服务)产品全面接入腾讯混元大模型,包含企业微信、腾讯会议、腾讯文档、腾讯乐享、腾讯电子签、腾讯问卷、腾讯云AI代码助手等产品。腾讯广告基于混元大模型推出AI广告创意平台妙思,有效提高广告主生产及投放效率。

无论是企业客户还是个人开发者,都可以通过腾讯云上API直接调用腾讯混元,实现更便捷的智能化升级。腾讯还联合生态伙伴,将大模型技术与20多个行业结合,提供超50个行业大模型解决方案。

(2) 腾讯云行业大模型

为更好解决特定行业问题,基于混元技术能力,结合垂直行业业务场景,加入大量垂直行业数据,精调训练出垂直行业大模型。相比通用大模型,行业大模型能够理解垂直行业的专业领域知识,提供更加精准的回复;并且在数据安全、生成内容控制方面会有进一步的能力提升。

目前腾讯云已经推出金融行业大模型、医学行业大模型、汽车行业大模型、教育行业大模型、文旅行业大模型等多个行业大模型,提供超50个行业大模型解决方案,助力客户构建专属大模型及智能应用,帮助客户提质增效。

以腾讯云金融行业大模型为例,其是在通用大模型基础上,加入大量金融行业数据进行训练,并通过行业专家强化反馈,提升了金融行业大模型在金融领域的任务效果。可以作为金融机构员工的智能助手,在知识问答、舆情摘要、营销文案生成、研报摘要、产品推荐、投资教育等场景帮助金融机构提高工作效率和用户体验。

腾讯云也将持续升级产品、技术能力,加速行业大模型在千行百业应用落地,助力更多实体实现高质量的数智化转型升级。

5. 全栈安全防护

(1) 腾讯云金融风控大模型

落地背景及挑战

随着零售信贷业务的发展,金融机构已经进入精细化运营和差异化竞争的阶段,各机构的产品设计和目标客群都有比较大的差异,反欺诈技术也从过去的通用反欺诈模型发展到定制化的阶段。

然而,金融反欺诈受表现期长,样本收集成本高,产品渠道迭代快等因素影响,普遍面临样本不足问题,导致金融定制化模型极易发生过拟合,导致上线后模型不稳定,或者效果衰减快,给风险控制带来很大挑战。

产品方案

方案价值

①建模无忧:腾讯专家级建模

金融风控大模型融合了腾讯安全天御大量风控建模专家的经验以及知识,能自动实现专家级精度的风控建模,客户无需模型专才也能高效构建风控模型。

②部署提效:全流程自动化

在建模阶段只需使用少量提示样本,就能自动构建适配客户自身业务独有特点的风控模型,并且实现全流程自动化的部署上线,支持客户持续发布快速集成到自身的风控系统上,帮助客户风控策略部署效率提升10倍。

③性能提升:解决“小样本”风控难题

依托20多年沉淀的海量欺诈样本和多场景下的丰富风控模型能力,金融风控大模型能帮助样本积累有限以及新业务上线“零样本”的企业,高效解决“小样本”训练难题,模型区分度比传统模式提升20%,快速构建风控体系,支撑业务发展。

④360度模型评估

金融风控大模型为客户提供超越自身样本的模型评估体系,包含所有的风控模型评估指标,覆盖全量金融风控的细分场景,并在跨场景的泛化性能力上提升30%,帮助企业新业务快速拓客。

(2) 腾讯云天御内容风控

落地背景及挑战

AIGC技术在带来丰富创造力的同时,也让数据真实性、内容合规性、用户隐私和身份,以及伦理等问题遭到空前挑战。从监管视角出发,国家对AIGC的整个业务形态提出需要落实三类合规要求,分别是数据、内容和算法。

在数据合规方面,2023年4月国家互联网信息办公室公布的《生成式人工智能服务管理办法(征求意见稿)》(以下简称办法)提到,在AIGC特定的大模型下提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责。

在内容合规方面,《办法》中提到利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人,承担该产品生成内容生产者的责任;提供者应当依法依规对生成的图片、视频等内容进行标识,履行信息内容管理主体责任,加强本平台网络信息内容生态治理。

在算法合规方面,算法推荐服务提供者必须落实算法备案要求、算法评估要求、算法相对透明要求、用户权益建立健全机制等要求。

产品方案

方案价值

腾讯天御内容风控以接口输入、内容预处理、模型识别、策略辅助、平台调度分析、人工标注运营共6个维度为用户提供完整的内容安全解决方案,同时与腾讯云对象存储、云直播、云点播、实时音视频等云上工具打通,让AIGC企业在云上一次接入,即可完成全套内容安全审核,大幅提升效率。

①经验丰富:20 多年运营经验+万亿级违规处理。

②高准确率:机器准确率达 99.99%。

③一键接入:与腾讯云五大云组件联动。

④量体裁衣:提供 十几种定制识别服务。

⑤敏捷响应:小时级响应针对性服务。

(3) 腾讯数据安全治理

大模型数据安全合规要求

在AIGC技术的快速发展和应用过程中,相关数据安全合规问题也一直备受监管单位关注。最近几年,监管单位陆续下发了《互联网信息服务算法推荐管理规定》、《互联网信息服务深度合成管理规定》、《生成式人工智能服务管理暂行办法》等规章政策,以《网络安全法》、《数据安全法》、《个人信息保护法》三大上位法为依据,完善了AIGC领域的监管框架,要求建立健全信息发布内容审核、数据安全、个人信息保护、应急处置等管理制度和技术措施,规定了AIGC服务的提供者和运营者应履行的各项合规义务,包括训练数据保护、个人信息保护、用户输入内容和使用记录的保护、安全评估、数据定期审核等内容。

大模型面临的安全风险

通过分析AIGC业务流程每个阶段面临的安全风险,得出以下风险模型:

大模型数据安全保护解决方案

通过分析AIGC面临的数据安全风险以及合规要求,对AIGC业务流程的不同阶段匹配数据安全防护策略,方案如下:

通过对大模型的用户、实体、模型文件实施分级别的访问控制,实现权限分离,通过数据安全治理中心、数据安全防护网关、机密计算平台等产品能力,实现大模型业务全流程中海量数据和大模型的完整性和保密性。通过此方案可以实现如下效果:

方案价值

①腾讯云数据安全治理解决方案针对AIGC场景做了适配开发,支持海量数据的敏感度识别和安全防护、审计溯源,防止隐私数据泄露、被滥用、被篡改,满足数据合规要求。

腾讯云数据安全治理产品利用腾讯大模型能力和高性能算力,训练数据安全大模型并反向赋能大模型数据安全,在敏感数据发现、数据标注、数据防泄漏、血缘分析、自动化响应等能力上具备显著优势,敏感数据自动化识别准确度达99%以上,风险识别准确度达97%以上,大大减少漏报率和误报率,减少安全运营阶段的工作量。

二、生成式AI产业最佳落地实践

一)路线一 - 标准软件产品方案

1. 旷真律所-腾讯乐享AI助手

项目背景及挑战

旷真律师事务所是国内领先的法律服务机构之一。律所所在的知识密集型行业,对知识的沉淀、更新和应用,有天然的、更高的要求。

该行业的知识具有很强的专业性与实践性,需要不断学习和更新知识库。而传统的知识传承是“师带徒”模式,受带人水平、人员稳定性的影响很大,需要系统化的知识管理平台将隐形知识显性化,为他人所用、为组织所用。此外,AI技术的出现能够大幅提升法律文书工作的效率,快速分析帮助律师判断和决策,促进团队创新和协作,对推动法律行业的工业化进程至关重要。

产品方案

①导入内部知识文档4w+至乐享平台,打造专属AI知识库,员工使用乐享AI助手智能问答进行专业问题对答,提升知识学习效率;并通过反馈-实时提醒作者修改-管理后台进行跟进分析,促进知识迭代。

②打造企业培训阵地,实现学考练同步执行,提升培训效率;众多资深律师作为培训内容生产者,通过AI助手生成课程大纲、知识点,生成课后考题,提升知识生产效率。

③全面使用乐享AI助手、知识库、课堂、直播、论坛、项目等功能模块,助力旷真律所知识管理、学习培训、文化建设三大场景提效。

项目成效

旷真律所依托腾讯乐享打造团队协作和知识管理平台,实践效果显著:目前已在“旷真大学乐享平台”存档4万余份员工编撰的指引和案例,开设了873场培训和课程,220余场认证直播。平台最高月访问量达40万人次,折合每人每天平均访问10次。

腾讯乐享的创新意义在于它打破了传统企业知识管理的方式,通过AI助手,使知识的生产、获取、共享、迭代和管理变得更高效。不仅帮助旷真快速沉淀和传承知识,降低人员流动带来的风险,提高团队效率和创新能力;还助力企业文化落地,打造了一支更具有学习力、凝聚力和奋斗精神的团队,让旷真更好地应对外部环境的变化。另外,腾讯乐享的应用也有助于推动旷真的数字化转型,为律所行业的可持续发展注入新的活力。

客户评价

“借助腾讯乐享AI助手,目前律所已形成自己的AI知识库。员工调研显示,对典型问题的AI回答满意度达93分,端到端问题准确率达91%。现在有问题就找乐享AI聊,要内容就找乐享AI帮忙出,腾讯乐享是旷真人的智能大学!”

⸺旷真法律集团学习与能力发展部部长 龙庆

2. 招商银行 - AI代码助手实践

项目背景及挑战

客户作为头部金融机构,积极拥抱智能化场景,率先探索AI驱动降本增效的落地方案;面临以下痛点:1、企业安全合规要求高,代码不可外泄;2、开源模型难以定制和调优、资源成本较高,产生投入产出管控顾虑;3、缺乏适用的标准评测数据集;4、IDE插件版本多,统一管理与多版本兼容挑战大。

产品方案

项目成效

1、成本降低:基于自研行业模型推理成本远低于大模型成本。

2、效能提升:成功打造出性能与体验更优、安全合规且满足业务场景的行业模型,建立起适合业务开发场景的模型微调评测标准,实现开发效率30%+提升。

(二) 路线二 - 标准模型能力增强

1. 百川智能-腾讯云向量数据库Tencent Cloud VectorDB

项目背景及挑战

大模型提供在线推理的服务背后有一个模块叫搜索增强,这个搜索增强服务需要向量数据库提供数据检索的功能,数据规模从1亿-100亿级别,对大规模、高性能、稳定性有比较高的要求。100亿级单索引存储规模,上千节点的集群管理,对向量数据库的架构设计,系统稳定性有着较高的要求。

产品方案

腾讯云向量数据库是一款全托管的自研企业级分布式数据库服务,源自腾讯集团自研的向量检索引擎 OLAMA,专用于存储、检索、分析多维向量数据。该数据库支持多种索引类型和相似度计算方法,提供多副本高可用特性,单索引支持10亿级向量规模,百万级 QPS 及毫秒级查询延迟,不仅能为大模型提供外部知识库,提高大模型回答的准确性,还可广泛应用于推荐系统、NLP 服务、计算机视觉、智能客服等 AI 领域。

①集成Embedding功能,高效易用

Embedding 功能是腾讯云向量数据库提供将非结构化数据自动转换为向量数据的能力,目前已支持多种语言的文本 Embedding 模型。可实现原始文本自动向量化进行写入/检索,对齐传统数据库使用体验,无需关注向量化过程。

·数据写入/检索自动向量化,对齐传统数据库的使用体验,无需关注向量生成过程。

·优化GPU处理速率,性能提升10倍,超高配速快速处理数据。

·海量GPU资源池提供算力服务,按需使用,成本更优。

②端到端AI套件,AGI时代的知识库解决方案

腾讯云向量数据库实现面向RAG领域中内容检索的端到端解决方案,在向量数据库中集成文档预处理、自动向量化、可视化调优等功能,简化RAG中的数据处理以及检索流程,大幅降低接入门槛,对比传统处理方案召回率提升30%,实现界内最高召回率,加以可视化调优进一步帮助业务快速搭建定制化的知识库服务。

·检索召回效果提升30%

在文档预处理、索引构建、结果排序等环节均进行了专项优化,并构建独特的精排方案,更适用于各类文档检索场景,召回率对比传统方案显著提升。

·接入成本降低10倍

相较于自行完成数据处理、向量化、创建索引等操作,AI套件方案提供简单、高效的解决方案,将知识库接入的时间从1个月提升到1小时,接入成本降低10倍以上。

项目成效

解决千亿数据量级下的数据分区、过期删除等问题,冷热数据分离,提升海量数据下的检索性能。

2. 中国大熊猫保护研究中心+广东工业大学-TI平台*知识引擎

项目背景及挑战

大熊猫行为识别 “大熊猫的AI饲养员”。

产品方案

(1)广东工业大学、腾讯云、中国大熊猫保护研究中心联合开展人工智能+大熊猫保护探索。一阶段围绕大熊猫采食行为视频化自动识别技术进行研发。这个阶段,借助腾讯云一站式机器学习生态服务平台TI平台的,进行数据清洗、标注、模型训练,开发了全球首个【大熊猫行为智能识别模型】,并生成大熊猫日常管理数据,如饮食习惯、行为规律等。主要使用到的TI平台功能如下:

①依托平台便捷易用性,多人协同完成大熊猫视频数据的数据过滤、清洗、标签,快速构造大熊猫行为识别图像训练库。

②依托平台的工具、算力等资源,加速大熊猫行为识别模型的搭建、训练、调试、优化。

(2)未来,随着根据【大熊猫行为智能识别模型】生成的大熊猫日常管理数据的增多,如何更加高效地利用这些数据去辅助饲养员管理保护大熊猫,成为项目探索的重点。腾讯大模型知识引擎将是我们重点探索的方向。比如,我们将大熊猫日常管理数据、大熊猫管理保护垂直领域的专业知识导入大模型知识引擎,让大模型对所有的数据、知识进行解析、重组,回答饲养员关于大熊猫日常行为状态问题,打造一个信息全面、知识专业的大模型饲养员助手,为饲养员快速提供单个大熊猫或者大熊猫种群的知识信息汇总和分析(含真实数据知识化和规范知识),助力大熊猫保护。

3. 中原出版集团-腾讯云大模型知识引擎

项目背景及挑战

由河南省教育厅牵头,中原出版集团牵头建设,面向河南省全省上千所中小学提供智慧教育平台,通过7×24小时全天候大模型知识助教实现因材施教,打造教师助理及学生助手,整体提升教学效率及质量。

教育内容的准确性至关重要,需确保大模型生成的内容不仅符合教育标准,而且还要适应不断更新的教育政策和课程要求,中原出版集团要将河南省百万级的中小学教材文档导入,进行知识梳理配置,工作量庞大且复杂。

产品方案

①知识引擎有现成开放接口,支持外部文档通过接口写入知识引擎文档库,无需梳理文档配置问答对,可针对文档直接问答。

②大模型支持教学大纲设计、习题解析等场景问答,可通过模型精调提升问答准确率,提升教学效率和质量。

项目成效

目前已在河南省郑州市部分重点中小学上线,在备课材料、教学实施、学生管理及工作事务四大场景帮助教师提升效率;在知识学习、作业联系、备考准备、学习提升四大场景助力学生提升学习效率和质量。

4. 万榕信息-腾讯云大模型知识引擎

项目背景及挑战

万榕信息是一家成套开关设备产业互联网集成服务公司,与腾讯云携手打造面向成套开关设备行业提供解决方案和专业服务的万智云电气产业互联网平台,借助人工智能技术提升行业设计效率,同时探索基于大模型的创新业务,扩宽服务应用边界,提供更准确,个性化的解决方案。

①电器行业专业文档内容复杂,包括国家标准,过往历史技术文档,设计文档,网页信息等,包含图文表混排及大量数据,问答梳理困难。

②传统客服机器人问答时,无法基于文档生成设计、方案、框架类内容进行回答。产品方案

①腾讯云大模型知识引擎具有解析复杂表格文档的能力,可将专业电气类技术文档内容准确解析,通过大模型进行理解推理,生成用户提问相对应的答案。

②大模型支持简单数学计算、数字范围判断,可解决数字范围类提问无法穷举的问题;大模型具备方案框架生成的能力,可应对用户方案设计思路类提问。

项目成效

①创建行业知识库,集结行业专家知识和经验,通过基于腾讯云大模型知识引擎打造的在线服务平台“榕博士”,供内部员工学习及合作伙伴查阅,促进知识共享。

②通过知识共享平台,研发人员可高效了解行业设计规范及内部产品标准,提效研发效率,售前人员可快速检索及定位产品文档手册,相应客户咨询,提升服务质量。

5. 中原消金-腾讯金融风控大模型

项目背景及挑战

面对新增零售信贷业务风控难与存量零售风控业务风险上升的双重挑战,中原消费金融携手腾讯云天御将“风控策略”与“算法模型”深度融合,构建了一个以多元化的平台能力、技术能力、数据能力为基础,涵盖“获客+授信准入+贷中管理+贷后管理”全流程的智能风控体系。

面对日益庞大的市场需求和更加严苛的合规要求,中原消金如何搭建完善贯穿客户全生命周期、业务全流程的智能风控体系是一项持续性的挑战。

①传统的风控模型以专家模型和逻辑回归为代表,强调可解释性和稳定性。随着信贷业务走向普惠、经营的客群更加多样化,需要使用更有效的算法来做信息整合和客群分层。

②为了更好地挖掘和发挥数据的价值,变量使用的量级和复杂度均会大幅提升,这对风控变量的管理提出更高的要求。

③围绕客户全生命周期的管理,模型从侧重于贷前、贷中、贷后等环节的客户风险识别,扩展到了包括客服、电诈、消保、协商还款等场景,更多地从经营的视角去审视模型带来的增益。

产品方案

面对新增零售信贷业务风控难与存量零售风控业务风险上升的双重挑战,中原消费金融携手腾讯云天御将“风控策略”与“算法模型”深度融合,构建了一个以多元化的平台能力、技术能力、数据能力为基础,涵盖“获客+授信准入+贷中管理+贷后管理”全流程的智能风控体系。中原消费金融还与腾讯云金融风控大模型所积累的风控知识和能力进行互动,更高效率地生产出专属于中原消费金融的风控模型。目前双方通过这样的模式联合共建了10个风控模型,应用在反欺诈、信用初筛、拒绝回捞、客户经营等多个场景。

项目成效

在双方联合构建的智能风控体系的支撑下,中原消金有效降低欺诈行为的发生,并在业内率先正式推出“7天无理由还款”权益,该权益是中原消费金融公司面向首次借款的用户推出的一项鼓励用户理性消费的保障性权益,也实现了消费金融行业产品形态“从0到1”的重大突破。建模周期从原来的 10天降至 3 天,上线周期从传统的7天升级为小时级上线。

(三)路线三 - 定制化模型精调训练

1. 长安汽车-行业大模型

项目背景及挑战

客户APP、车机的小安助手及客服中心产品需升级能力:

①目前采用关键字匹配的方式回答用户问题,若未匹配则不能很好的回答响应,用户体验较差。

②后端知识库存储了长安的车型知识,目前是人工录入,随着车型越来越多,效率低成本高,无法满足业务需求。

产品方案

基于汽车行业大模型,结合客户数据,训练长安大模型。利用大模型泛化解析能力,解析客户手册、文档,生成知识对,完善知识库;再基于大模型语义理解能力,结合知识库,对用户提出的问题进行更准确的回答。

项目成效

由周级录入,升级到分钟级生成天级校对,效率提升数十倍。人工录入质量层次不齐,模型生成标准化,不依赖专家经验。人工方式人员培养难,模型方式能力可迭代、可扩展。成本随业务规模增长可控。由单轮会话提升到具备多轮对话能力。对传统AI闲聊,升级到大模型闲聊,用户体验大幅提升。通过大模型兜底回复,提升问题解答率,提高结果正确率。

2. 某大模型企业

项目背景及挑战

客户自研文本大模型和语音大模型在上线后,遇到了内容审核的多项难点:

①区别于真人聊天,用户会把AI当做问答工具,会涉及到历史、政治、价值观等话题,平台的内容安全风险增加。

②产品迅速破圈,存在少量高危用户会尝试试探平台底线。

③由于场景的特殊,违规数据中色情话题比例较高。

当前AIGC内容安全受到国家高度重视,监管要求AIGC技术提供商要在数据、合规、算法

三大形态上落实合规要求,而即将上线的自研文本大模型和语音大模型面临着新型AI 伪造、虚假、违背伦理、不适内容、未成年人等违规内容,以及AI 问答产生错误引导等内容,大大增加了审核的难度和复杂度。

产品方案

针对 AIGC 技术所带来的内容风险挑战,腾讯安全依托二十余年的安全对抗经验,为该大模型企业提供了AIGC全链路内容安全解决方案。基于数据合规、内容合规、算法合规等相关政策要求,为企业已上线的大模型平台提供包含审校服务、安全专家服务、机器审核服务、版权保护服务五大能力板块,覆盖AIGC类应用从模型训练到内容生成到事后运营全过程的内容安全建设,确保AI大模型可信、可靠、可用。

项目成效

天御AIGC内容安全解决方案覆盖了“虚拟人创建”、“虚拟人 1V1对话”“热点话题审核”等多个场景,为企业提供十几种定制识别服务,机器审核准确率达 99.99%,有效保障了大模型生成内容的合规、可用。

3. 阅文集团-TI平台行业大模型精调

项目背景及挑战

作为国内头部的网文创作公司,阅文集团希望使用生成式AI技术,在文生图/图生图场景中,面向C端用户的应用需要提供高QPS、低模型耗时的方案。

产品方案

项目成效

阅文基于腾讯云TI平台搭载的angel推理加速引擎,推理能力平均提升30%,在文生文领域,更是把成本降低到原来的1/4。此外,TI平台提供动态batch和自动服务调度机制,大幅提高了服务吞吐量,模型优化和部署模块一键加速和发布模型,支持模型推理加速的过程中动态加载不同的LoRA模型,极大减轻了服务部署的维护成本。

三、生成式AI发展展望

通过上一章节分析各行业的最佳落地实践,我们可以发现生成式AI技术已经取得了突破性进展,并且在各个领域得到了广泛的应用。随着不断的研究和实践,生成式AI技术本身仍然存在着许多可以突破创新的方向。更加高效灵活的架构、覆盖模态的持续扩充、具身智能等都是可期的生成式AI新技术趋势。这些新技术突破,必将带来更多的创新成果和应用场景。

首先,我们认为新架构是一个至关重要的技术创新方向。本轮技术革命源头是Transformer架构的诞生,但距今已有7年之久,而且计算效率距离人脑还有很大的提升空间。技术人员始终在开发下一代人工智能架构,卡内基梅隆和普林斯顿联合研发的Mamba架构正在向Transformer发起挑战。未来势必涌现出更高效、更灵活的架构,带来更多的优势和创新,为未来生成式AI应用扩展奠定坚实基础。

其次,我们关注到多模态能力持续扩展的趋势,如基因、生物电、雷达信息等。基因组学等信息可以视为另一种“语言”,复杂度极高,生成式AI技术正在突破这些未涉及的模态领域。这一技术趋势将带来生成式AI在生命健康、科学研究、汽车等领域更加丰富的应用场景,引领更多行业开启科技变革。

第三,具身智能是未来数年生成式AI又一技术突破点。具身智能,是指通过将生成式AI应用到物理世界,载体可以是机器人、也可以是智能设备,从而实现更加智能化和个性化的互动体验。具身智能延展了生成式AI技术的应用边界,家居、交通等领域可能诞生产品价值创新的革命性变化。

生成式AI技术的蓬勃发展已经为我们推开了通向通用人工智能的大门。研究人员还在不断推动技术进步,企业也将积极采纳新技术,并应对应用落地过程中的挑战,最终共同努力实现通用人工智能的目标。


53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询