微信扫码
与创始人交个朋友
我要投稿
Meta Llama 3 模型详解
Meta公司开发并发布了一系列名为 Meta Llama 3 的大型语言模型(LLM),其中包括 8B 和 70B 两种规模的预训练和指令微调生成文本模型。 Llama 3 的指令微调模型针对对话场景进行了优化,在常见的行业基准测试中,其性能超越了许多现有的开源聊天模型。更重要的是,在开发这些模型的过程中,Meta 非常注重提升模型的帮助性和安全性。
模型开发者: Meta 公司
模型变体: Llama 3 有两种规模——8B 和 70B 参数——并且每种规模都包含预训练和指令微调两种变体。
模型输入: 模型仅接受文本输入。
模型输出: 模型仅生成文本和代码。
模型架构: Llama 3 是一种自回归语言模型,采用了优化的 Transformer 架构。微调版本使用了监督微调( SFT )和带有人类反馈的强化学习( RLHF )技术,以确保模型与人类对帮助性和安全性的偏好保持一致。
训练数据 | 参数 | 上下文长度 | GQA | 令牌数量 | 知识截止日期 | |
Llama 3 | 公开可用的在线数据的新组合。 | 8B | 8k | 是 | 15T+ | 2023 年 3 月 |
70B | 8k | 是 | 2023 年 12 月 |
Llama3 模型系列。 令牌数量仅指预训练数据。 8B 和 70B 版本都使用了分组查询注意力( GQA )技术,以提升模型推理的可扩展性。
模型发布日期: 2024 年 4 月 18 日。
模型状态: 这是一个在离线数据集上训练的静态模型。随着 Meta 公司根据社区反馈不断改进模型的安全性,未来将会发布更多版本的微调模型。
模型许可证: 自定义商业许可证可在以下网址获得: https://llama.meta.com/llama3/license
关于模型的问题或意见的发送地点: 有关如何提供对模型的反馈或意见的说明,请参阅模型 README。有关生成参数和如何在应用程序中使用 Llama 3 的方法的更多技术信息,请访问 此处。
预期用途
预期用例: Llama 3 适用于英语的商业和研究用途。指令微调模型适用于类似助手的聊天场景,而预训练模型可以适用于各种自然语言生成任务。
范围外使用: 以任何违反适用法律或法规(包括贸易合规法律)的方式使用 Llama 3 。以任何其他被可接受使用政策和 Llama 3 社区许可证禁止的方式使用 Llama 3 。使用英语以外的语言**。
注意: 开发者可以针对英语以外的语言微调 Llama 3 模型,前提是他们遵守 Llama 3 社区许可证和可接受使用政策。
硬件和软件
训练因素: Meta 公司使用自定义训练库、Meta 的研究超级集群和生产集群进行预训练。微调、标注和评估也在第三方云计算平台上进行。
碳足迹: 预训练累计使用了 7.7M GPU 小时的计算,硬件类型为 H100-80GB ( TDP 为 700W )。估计总排放量为 2290 吨二氧化碳当量,其中 100% 由 Meta 的可持续发展计划抵消。
时间(GPU 小时) | 功耗(W) | 碳排放量(吨二氧化碳当量) | |
Llama 3 8B | 1.3M | 700 | 390 |
Llama 3 70B | 6.4M | 700 | 1900 |
总计 | 7.7M | 2290 |
预训练期间的二氧化碳排放量。 时间:训练每个模型所需的总 GPU 时间。功耗:使用的 GPU 的每个 GPU 设备的峰值功率容量,根据电源使用效率进行调整。 100% 的排放量直接由 Meta 的可持续发展计划抵消,并且由于我们是公开发布这些模型的,因此其他人不需要承担预训练成本。
训练数据
概述: Llama 3 使用来自公开可用来源的超过 15 万亿个令牌的数据进行预训练。微调数据包括公开可用的指令数据集,以及超过 10M 个人工标注的示例。预训练和微调数据集都不包含 Meta 用户数据。
数据新鲜度: 预训练数据的截止日期分别为 7B 模型的 2023 年 3 月和 70B 模型的 2023 年 12 月。
基准测试
在本节中,我们将报告 Llama 3 模型在标准自动基准测试中的结果。对于所有评估,我们使用 Meta 公司内部的评估库。有关方法的详细信息,请参阅 此处。
基本预训练模型
类别 | 基准测试 | Llama 3 8B | Llama2 7B | Llama2 13B | Llama 3 70B | Llama2 70B |
一般 | MMLU(5-shot) | 66.6 | 45.7 | 53.8 | 79.5 | 69.7 |
AGIEval 英语(3-5 shot) | 45.9 | 28.8 | 38.7 | 63.0 | 54.8 | |
CommonSenseQA(7-shot) | 72.6 | 57.6 | 67.6 | 83.8 | 78.7 | |
Winogrande(5-shot) | 76.1 | 73.3 | 75.4 | 83.1 | 81.8 | |
BIG-Bench Hard(3-shot,CoT) | 61.1 | 38.1 | 47.0 | 81.3 | 65.7 | |
ARC-Challenge(25-shot) | 78.6 | 53.7 | 67.6 | 93.0 | 85.3 | |
知识推理 | TriviaQA-Wiki(5-shot) | 78.5 | 72.1 | 79.6 | 89.7 | 87.5 |
阅读理解 | SQuAD(1-shot) | 76.4 | 72.2 | 72.1 | 85.6 | 82.6 |
QuAC(1-shot,F1) | 44.4 | 39.6 | 44.9 | 51.1 | 49.4 | |
BoolQ(0-shot) | 75.7 | 65.5 | 66.9 | 79.0 | 73.1 | |
DROP(3-shot,F1) | 58.4 | 37.9 | 49.8 | 79.7 | 70.2 |
指令微调模型
基准测试 | Llama 3 8B | Llama 2 7B | Llama 2 13B | Llama 3 70B | Llama 2 70B |
MMLU(5-shot) | 68.4 | 34.1 | 47.8 | 82.0 | 52.9 |
GPQA(0-shot) | 34.2 | 21.7 | 22.3 | 39.5 | 21.0 |
HumanEval(0-shot) | 62.2 | 7.9 | 14.0 | 81.7 | 25.6 |
GSM-8K(8-shot,CoT) | 79.6 | 25.7 | 77.4 | 93.0 | 57.5 |
MATH(4-shot,CoT) | 30.0 | 3.8 | 6.7 | 50.4 | 11.6 |
责任与安全
Meta相信,开放的 AI 方法可以带来更好、更安全的产品、更快的创新和更大的整体市场。Meta 致力于负责任的 AI 开发,并采取了一系列措施来限制误用和损害,并支持开源社区。
基础模型是功能广泛的技术,旨在用于各种不同的应用程序。它们并非设计为开箱即用地满足每个开发者对所有用例的安全级别偏好,因为这些偏好本质上会在不同的应用程序中有所不同。
相反,负责任的 LLM 应用程序部署是通过在开发此类应用程序的整个过程中实施一系列安全最佳实践来实现的,从模型预训练、微调和部署由保障措施组成的系统,以根据用例和受众的具体需求定制安全需求。
作为 Llama 3 版本的一部分,Meta 更新了 责任使用指南,以概述开发者为其应用程序实施模型和系统级安全的步骤和最佳实践。Meta 还提供了一系列资源,包括 Meta Llama Guard 2 和 Code Shield 保障措施。这些工具已被证明可以大幅降低 LLM 系统的残余风险,同时保持高水平的帮助性。Meta 鼓励开发者根据他们的需求调整和部署这些保障措施,并提供了一个 参考实现 来帮助开发者入门。
Llama3-Instruct
如责任使用指南中所述,模型帮助性与模型一致性之间的一些权衡可能是不可避免的。开发者应酌情决定如何权衡其特定用例和受众的一致性和帮助性的好处。开发者在使用 Llama 模型时应注意残余风险,并根据需要利用额外的安全工具来达到其用例的正确安全标准。
安全
对于 Meta 的指令微调模型,Meta 进行了广泛的红队演练,进行了对抗性评估,并实施了安全缓解技术,以降低残余风险。与任何大型语言模型一样,残余风险可能仍然存在,Meta 建议开发者在其用例的背景下评估这些风险。与此同时,Meta 正在与社区合作,使 AI 安全基准标准透明、严格和可解释。
拒绝
除了残余风险之外,Meta 还非常重视模型对良性提示的拒绝。过度拒绝不仅会影响用户体验,甚至在某些情况下也会造成伤害。Meta 已经听取了开发者社区的反馈,并改进了微调过程,以确保 Llama 3 比 Llama 2 拒绝回答提示的可能性大大降低。
Meta建立了内部基准,并开发了缓解措施来限制错误拒绝,使 Llama 3 成为 Meta 迄今为止最有帮助的模型。
负责任的发布
除了上述负责任使用注意事项外,Meta 还遵循严格的流程,要求在做出发布决定之前采取额外措施来防止误用和关键风险。
误用
如果您访问或使用 Llama 3,则表示您同意可接受使用政策。该政策的最新副本可在 https://llama.meta.com/llama3/use-policy/ 上找到。
关键风险
CBRNE(化学、生物、放射性、核和高产炸药)
Meta对该领域的模型安全性进行了双重评估:
在模型训练期间进行迭代测试,以评估与 CBRNE 威胁和其他对抗性风险相关的响应的安全性。
邀请外部 CBRNE 专家进行提升测试,评估模型准确提供专业知识的能力,并通过参考使用网络搜索(不使用模型)可以实现的目标来降低潜在 CBRNE 误用的障碍。
网络安全
Meta使用 CyberSecEval(Meta 的网络安全安全评估套件)评估了 Llama 3,测量了 Llama 3 在用作编码助手时建议不安全代码的倾向,以及 Llama 3 遵守帮助执行网络攻击的请求的倾向,其中攻击由行业标准 MITRE ATT&CK 网络攻击本体定义。在我们不安全的编码和网络攻击者帮助测试中,Llama 3 的行为与 同等编码能力 的模型处于同一范围或更安全。
儿童安全
儿童安全风险评估由专家团队进行,以评估模型产生可能导致儿童安全风险的输出的能力,并通过微调告知任何必要和适当的风险缓解措施。我们利用这些专家红队会议,通过 Llama 3 模型开发扩展了我们评估基准的覆盖范围。对于 Llama 3,我们使用基于目标的方法进行了新的深入会议,以评估模型沿多个攻击载体的风险。我们还与内容专家合作,执行红队演练,评估潜在的违规内容,同时考虑特定市场的细微差别或经验。
社区
生成式 AI 安全需要专业知识和工具,Meta 相信开放社区的力量可以加速其进展。Meta 是开放联盟的积极成员,包括 AI 联盟、AI 合作伙伴关系和 MLCommons,积极为安全标准化和透明度做出贡献。Meta 鼓励社区采用 MLCommons 概念验证评估等分类法,以促进安全和内容评估方面的协作和透明度。Meta 的 Purple Llama 工具是开源的,供社区使用,并在生态系统合作伙伴(包括云服务提供商)中广泛分发。Meta 鼓励社区为 Github 存储库 做出贡献。
最后,Meta 设立了一系列资源,包括 输出报告机制 和 漏洞赏金计划,以在社区的帮助下不断改进 Llama 技术。
道德考量和局限性
Llama3 的核心价值观是开放、包容和帮助。它旨在服务于所有人,并适用于各种用例。因此,它的设计目的是让具有不同背景、经验和观点的人们都能访问它。Llama 3 按照用户的实际情况及其需求来处理,不会插入不必要的判断或规范性,同时反映了这样一种理解,即即使在某些情况下可能出现问题的內容,在其他情况下也可以服务于有价值的目的。它尊重所有用户的尊严和自主权,尤其是在推动创新和进步的思想和表达自由的价值观方面。
但 Llama 3 是一项新技术,与任何新技术一样,它的使用也存在风险。迄今为止进行的测试都是用英语进行的,并没有涵盖,也不可能涵盖所有场景。由于这些原因,与所有 LLM 一样,Llama 3 的潜在输出无法提前预测,并且该模型在某些情况下可能会对用户提示产生不准确、有偏见或其他令人反感的响应。因此,在部署 Llama 3 模型的任何应用程序之前,开发者应执行针对其模型特定应用的安全测试和调整。如责任使用指南中所述,Meta 建议将 Purple Llama 解决方案纳入您的工作流程,特别是 Llama Guard,它提供了一个基础模型来过滤输入和输出提示,以便在模型级安全之上构建系统级安全。
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-05-14
2024-04-26
2024-03-30
2024-04-12
2024-05-10
2024-07-18
2024-05-22
2024-05-28
2024-04-25
2024-04-26