AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


SiliconCloud上新:GLM-4-9B,通用能力超越Llama 3
发布日期:2024-06-06 08:58:37 浏览次数: 1797


今天,智谱发布了第四代 GLM 系列开源模型:GLM-4-9B。

GLM-4-9B 系列模型包括:基础版本 GLM-4-9B(8K)、对话版本 GLM-4-9B-Chat(128K)、超长上下文版本 GLM-4-9B-Chat-1M(1M)和多模态版本 GLM-4V-9B-Chat(8K)。GLM-4-9B 模型具备了更强大的推理性能、更长的上下文处理能力、多语言、多模态和 All Tools 等突出能力。

目前,SiliconCloud已上线GLM-4-9B-Chat开源模型。欢迎试用:

https://cloud.siliconflow.cn/models/text/chat/17885302522

注意!!!GLM-4-9B-Chat已进入“6.18购物狂欢节”福利包:“每人送3亿token”。注册即可畅玩(截止6月18日23:59):

www.siliconflow.cn/zh-cn/siliconcloud

据智谱介绍,在预训练方面,他们引入了大语言模型进入数据筛选流程,最终获得了10T高质量多语言数据,数据量是ChatGLM3-6B模型的3倍以上。同时,它们采用了FP8技术进行高效的预训练,相较于第三代模型,训练效率提高了3.5倍。在有限显存的情况下,他们探索了性能的极限,并发现6B模型性能有限。因此,在考虑到大多数用户的显存大小后,他们将模型规模提升至9B,并将预训练计算量增加了5倍。

Github:https://github.com/THUDM/GLM-4

关于SiliconCloud

SiliconCloud是集合主流开源大模型的一站式云服务平台,为开发者提供更快、更便宜、更全面的模型API。

目前,SiliconCloud已上架包括GLM-4-9B-Chat、DeepSeek V2、Mixtral、Llama 3、Qwen、SDXL、InstantID在内的多种开源大语言模型、图片生成模型,支持用户自由切换符合不同应用场景的模型。同时,SiliconCloud提供开箱即用的大模型推理加速服务,为生成式AI应用带来更高效的用户体验。

真正在乎大模型推理性能和成本的开发者,绝不会错过SiliconCloud。更何况,现在还送3亿token。快试试吧:

www.siliconflow.cn/zh-cn/siliconcloud
扫码加入SiliconCloud交流群


53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询