AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


完全开源大模型OLMo,公布代码+数据集+训练全过程
发布日期:2024-03-18 14:56:29 浏览次数: 1985 来源: 数联未来


OLMo项目是由艾伦人工智能研究所(AI2)推出的一个真正完全开源的大语言模型(LLM)项目。这个项目的全称是“Open Language Model”,强调的是其彻底的开源性质。与此前的一些开源大模型不同,OLMo项目不仅提供了预训练的模型权重,而且还开放了训练这些模型所需的数据集、训练代码以及评估模型性能的代码。

以下是OLMo项目的几个关键特点:

  1. 完全开放的数据集:OLMo使用的训练数据集名为Dolma,包含超过3万亿个词汇,来源于多种网络内容、学术出版物、代码、书籍和百科资料。这个数据集同样开源,并且AI2还提供了构建该数据集的工具包。

  2. 模型规模:据信息显示,OLMo项目目前开源的模型规模中,最大的一个是7B(即70亿参数)的版本。此外,还有一个规模更大的65B(650亿参数)的模型仍在训练中。

  3. 微调版本:OLMo项目还提供了针对特定任务的微调版本,例如OLMo 7B Instruct,这可能对模型的指令遵循能力有所提升。

  4. 性能表现:据称,OLMo 7B在多项评测中与Meta开源的Llama 2 7B模型表现相当。

  5. 持续开源:AI2承诺将持续推动OLMo项目的发展,未来还会开放更多相关的资源和模型。

  6. 对研究者的价值:对于刚刚接触LLM的研究者和开发者来说,OLMo提供了一个方便的起点。因为从零开始训练一个大型语言模型通常需要大量的计算资源和数据准备,OLMo的开源性质极大地降低了这一门槛。

  7. 开放性:OLMo的开放性不仅有助于学术研究,也促进了不同背景的开发者共同参与和改进模型,推动了技术的民主化。


模型原理


OLMo的模型原理与其他大型语言模型类似,主要基于变换器(Transformer)架构。变换器模型使用自注意力机制(self-attention mechanism)来捕捉输入文本中的长距离依赖关系。以下是OLMo模型的一些关键特性:

  1. 变换器架构:采用多层变换器结构,其中包含多个自注意力层和前馈网络。

  2. 预训练任务:OLMo在预训练阶段使用了多种任务,如语言建模(预测下一个词)和掩码语言建模(预测被掩码的词)。

  3. 指令微调:OLMo可能包括指令微调(Instruction Tuning)技术,以提高模型对特定指令的遵循能力。

  4. 多任务学习:模型可能被设计为支持多任务学习,以处理不同的NLP任务。


53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询