AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


如何选出性价比最高的Llama 3.1
发布日期:2024-09-05 23:07:32 浏览次数: 1578


今天终于有时间看了下Llama 3.1的技术报告,整篇报告有90多页,内容非常丰富。我想分享其中关于模型大小与能力评估的思考

TL;DR

  • Llama 3.1模型在相同参数量下几乎达到了SOTA水平
  • 使用公开评测集评估模型能力意义有限
  • 70B参数的模型在大多数任务中的性价比最高
  • 超大模型仅在特定任务上表现明显提升

正文

这部分内容主要涉及第5章的评估结果分析,这一章的内容主要涵盖了预训练模型(Base Model)和后训练模型(Instruct Model)的自动评估与人工评估,还包括安全性评估。

今天我们重点分析后训练模型的自动评估结果

在讨论模型大小与能力时,我们参考了以下这张表:

llama3模型在主要基准测试集上的评测结果对比

自动评估涉及当前主流的几个能力维度:

  • 通用能力
  • 编码能力
  • 数学能力
  • 推理能力
  • 工具使用能力
  • 长上下文处理能力
  • 多语言能力

对应的数据集也是目前业界主流的自动评测数据集合。

从图表中可以看到:在相近参数量的模型中,Llama 3几乎都达到了SOTA(当前最佳)水平,这一点在许多技术报告中其实都很常见,几乎每个模型都会宣称自己在某些方面达到了SOTA。唯一不同的是,每份报告中的SOTA模型都是自己的版本。

由于大部分评估数据集是公开的,模型能够在这些数据上进行训练,这也导致使用这些公开评测集来评估不同模型的能力已经失去了一定的意义

但是,我们可以从另一个角度分析这张表:不同参数量的Llama 3模型在各个数据集上的表现。这能帮助我们了解如果想要在某些特定任务上取得更好的效果,需要将模型参数扩大多少倍,同时也能评估是否值得投入更多资源使用更大的模型

通用能力

编码能力

数学能力

推理能力

工具使用

长上下文处理

多语言能力

从这些维度的分析中可以看出,当参数从8B提升至70B时,模型在评估数据集上的得分显著提高;但当参数从70B再提升至405B时,除了在编码能力评估上有明显提升外,其他能力的得分提升就没有那么明显了

因此可以得出一个大致结论:70B大小的模型在绝大多数场景下性价比最高如果场景需要较多的逻辑推理或编码能力,可以考虑使用更大的模型来获得更好的效果

这部分内容的分析为我们在实际应用中选择合适的模型大小提供了有力参考。



53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询