微信扫码
与创始人交个朋友
我要投稿
深入解析DeepSeek模型家族的技术创新,揭示中国AI在全球科技竞争中的重要地位。核心内容:1. DeepSeek模型家族的发展历程及其对全球科技市场的影响2. DeepSeek R1的技术亮点与突破性创新3. 各版本DeepSeek模型的技术细节与性能对比
行到水穷处,坐看云起时。大家好,我是卖热干面的小女孩。今天与大家分享的是DeepSeek系列模型家族的技术创新。
DeepSeek 横空出世并迅速走红,在全球科技圈引发强烈震动,直接致使NVIDIA股价暴跌 18%,全球科技股市市值蒸发近1万亿美元。特朗普出人意料地公开称赞DeepSeek 的崛起具有 “积极意义”,还表示这给美国敲响了 “警钟”。Anthropic一方面对DeepSeek 的成就予以肯定,另一方面却呼吁美国政府强化对华芯片管制。显示出中国 AI 实力已不容小觑,正改变着全球 AI 发展走向。
延续之前:
小编继续研读了DeepSeek系列模型的前沿文献和解读资料,精心梳理出这篇文章。今天,就请跟随小编的脚步,一同探索DeepSeek模型家族。
DeepSeek 系列在技术创新的道路上不断深耕,每一次新版本的发布,都是在原有基础上的一次飞跃,不断为行业注入新的活力。从最初的DeepSeek LLM、DeepSeekMoE、DeepSeekMath,再到DeepSeek V2、DeepSeek V3以及最新的DeepSeek R1,每一款模型都蕴含着独特的创新点,在模型架构、训练方法、数据集开发等多个维度持续突破。
发布时间:2024年1月
论文:https://arxiv.org/pdf/2401.02954
DeepSeek LLM属于密集的LLM模型,在微观设计上,DeepSeek LLM沿用LLaMA的部分设计,如采用Pre-Norm结构、RMSNorm函数、SwiGLU激活函数和Rotary Embedding位置编码。
模型架构与训练的优化:
缩放定律研究:提出了新的最优模型/数据扩展-缩放分配策略。并指导了开源配置(7B和67B),以及指导使用最佳超参数进行预训练。
开发数据集:数据集规模:DeepSeek LLM 使用了一个包含 2 万亿字符的双语数据集进行预训练,这比 LLaMA 的数据集更大。
模型性能:DeepSeek LLM 67B在各种基准测试中超过了LLaMA-2 70B,特别是在代码、数学和推理方面。开放式评估显示,与GPT-3.5相比,DeepSeek LLM 67B Chat表现出更优越的性能。
模型规模:模型的规模包括7B和67B。
DeepSeek-Chat:还对DeepSeek LLM基础模型进行了SFT和直接偏好优化(DPO),从而创建了DeepSeek Chat模型。
局限性: DeepSeek Chat 存在与其他 LLMs 类似的局限,如预训练后知识难更新、易生成不实信息与幻觉,中文数据初始版本不详尽影响特定主题性能,且因数据以中文和英文为主,对其他语言的处理能力不足。
在大型语言模型时代,混合专家(Mixture-of-Experts, MoE)架构是一种有前途的架构。传统的MoE架构如GShard,激活前?个专家中的?个,面临着确保专家专业化的问题。DeepSeekMoE,是一种创新的MoE架构,专门设计用于实现终极专家专业化(expert specialization)。DeepSeekMoE架构有两个关键创新:
通过更灵活的专家组合提升模型性能,同时保持计算成本不变。
数据集规模:16B。
DeepSeekMoE的性能优势:
DeepSeekMoE 16B的MoE聊天模型:进行了有监督微调以实现对齐,构建了基于DeepSeekMoE 16B的MoE聊天模型。
开源:DeepSeekMoE 16B的模型检查点公开发布,该模型可以在单个40GB内存的GPU上部署。
负载均衡的辅助损失(Auxiliary Loss for Load Balance)
采用专家级平衡损失和设备级平衡损失,缓解在训练MoE模型时,自动学习的路由策略可能出现负载不均衡问题,引发路由崩溃和加剧计算瓶颈
DeepSeekMoE 16B与开源模型在Open LLM Leaderboard上的比较。红色虚线是从除DeepSeekMoE 16B之外的所有模型的数据点线性拟合得到的。DeepSeekMoE 16B始终以很大的优势胜过具有类似激活参数数量的模型,并在性能上与LLaMA2 7B相媲美,后者的激活参数数量大约是其2.5倍
DeepSeekMath是DeepSeek发布的数学推理模型。模型参数仅7B,却在数学推理能力上直逼GPT-4,在权威的MATH基准榜单上力压群雄,超越了一众参数规模在30B-70B之间的开源模型。DeepSeekMath的2大亮点:
DeepSeek V2,是一款强大的混合专家(MoE)语言模型,具有经济高效的训练和推理能力。参数规模虽然达到了庞大的236B,但由于其MoE的结构,使得其中每个token激活仅21B的参数,且支持128K的上下文。其创新点主要体现在模型架构、训练数据和方法、性能表现和模型对齐四个方面:
改造注意力模块:创造性的提出多头潜在注意力——Multi-head Latent Attention(简称MLA),替代传统多头注意力(Multi Head Attention)具体而言,MLA利用低秩键值联合压缩(low-rank key-value joint compression)来降低推理时的KV Cache开销,且性能不输于MHA。而且,缓解MQA、MGA对性能的损耗。
改进MoE:其把FFN的结构改成DeepseekMoE——是对传统MoE结构的改进【这里是上篇的DeepSeekMoE】。
基于YaRN的长上下文扩展:DeepSeek-V2 的初始预训练之后,采用 YaRN将默认上下文窗口长度从 4K 扩展到 128K。
DeepSeek-V2-Lite:发布DeepSeek-V2-Lite:相当于配备 MLA 和 DeepSeekMoE 的较小模型,它总共有15.7B参数,其中每个token激活2.4B参数。
负载均衡的辅助损失:DeepSeek-V2 的训练过程中,设计了三种辅助损失:
在训练期间引入了设备级的Token-Dropping策略。
DeepSeek V2训练流程
发布时间:2024年12月26日 论文:https://github.com/deepseek-ai/DeepSeek-V3/blob/main/DeepSeek_V3.pdf V3风靡海内外的关键因素:训练成本极低、引领前沿创新。在保持较低训练成本的同时,大幅提升模型性能。其参数量虽高达671B,但其所用的GPU训练资源 仅为Llama 3.1 405B的差不多1/14。
整体思路: 基于DeepSeek-V2,采用MLA和DeepSeekMoE架构。另外,通过引入新的架构和训练策略,进一步提升模型的性能,同时降低训练成本。在模型架构、训练方法、知识蒸馏与能力提升、模型性能与成本等方面进行创新。
V3的核心创新点:
无辅助损失的负载均衡策略: 通过引入偏置项动态调整专家负载,避免了传统辅助损失带来的性能损失。
多Token预测(Multi-Token Prediction): 在每个位置预测多个未来的 token,增加训练信号,提高模型的数据效率。
高效的训练框架:
FP8 混合精度训练框架: 首次验证了 FP8 训练在超大规模模型上的可行性和有效性。
高效的训练框架: 通过 DualPipe 算法和优化的通信内核,实现了近乎零开销的跨节点通信。
知识蒸馏与能力提升:在训练阶段,从 DeepSeek - R1 系列模型中蒸馏推理能力,将其融入 DeepSeek - V3,有效提升了模型的推理性能。在保持模型准确性的同时,合理控制了输出风格和长度,使模型在复杂推理任务中表现更出色。
卓越的模型性能与低成本:在经济的训练成本下,DeepSeek - V3 展现出强大的性能。其基础模型在知识、代码、数学和推理等领域的基准测试中超越了其他开源模型,聊天版本在标准和开放式基准测试中性能与领先的闭源模型相当,成为目前最强的开源基础模型之一,为开源模型的发展树立了新的标杆。
有关DeepSeek R1的深入解读,还可以参考小编的文章:DeepSeek-R1如何用强化学习、冷启动和蒸馏,开启大模型训练新思路?
DeepSeek 系列模型凭借一系列创新技术在人工智能领域取得了显著进展,各模型在不同方面展现出独特优势,推动了语言模型的发展。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-02-05
抱抱脸24小时复刻Deep Research,一个团队完成一个OpenAI~
2025-02-05
从0-1:DeepSeek 大模型本地部署全攻略
2025-02-05
使用腾讯 HAI 5 分钟内部署一个私人定制的 DeepSeek
2025-02-05
DeepSeek的「深度思考模式」
2025-02-05
Ollama + Open WebUI 部署自己的本地大语言模型知识库, 创建自定义 Ollama 模型.
2025-02-05
【AI工作流】Ollama本地化大模型安装
2025-02-05
【AI工作流】【喂饭】Xinference后台大模型平台搭建
2025-02-04
DeepSeek-R1 是怎么训练的|深度拆解
2025-01-01
2024-07-25
2024-05-06
2025-01-21
2024-08-13
2024-06-12
2024-09-20
2024-07-11
2024-07-20
2024-12-26
2025-01-22
2025-01-16
2024-12-24
2024-12-20
2024-12-19
2024-11-22
2024-11-19
2024-11-13