微信扫码
与创始人交个朋友
我要投稿
模型空间大小 = 参数量 *参数精度
ully,公众号:AI工程化一文探秘LLM应用开发(11)-模型部署与推理(模型大小与推理性能的关系)
这使得能够很方便地在单卡上部署推理,降低使用的门槛。以chatGLM2-6B为例,它有62亿参数,权重参数文件采用BF16精度存储,实际显存占用大概为12.5GB,一个英伟达T4显卡(16GB)就能跑起来。
模型结构上的设计。从模型结构上看,当前大模型都是采用的transfomer模型的decoder-only结构(未遮盖部分)。其参数量受到隐藏层维度,层数,注意力头数等影响,而这些参数取值既参考GPT-3,也是结合。下面是llama和gpt系列模型的参数量统计:
实际参数量P | 隐藏层维度d_model | 层数N | 注意力头数h | 估算参数量 |
6.7B | 4096 | 32 | 32 | 6590300160 |
13.0B | 5120 | 40 | 40 | 12730761216 |
32.5B | 6656 | 60 | 52 | 32045531136 |
65.2B | 8192 | 80 | 64 | 64572358656 |
llama
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-03-30
2024-04-26
2024-05-10
2024-04-12
2024-05-28
2024-05-14
2024-04-25
2024-07-18
2024-04-26
2024-05-06
2024-12-22
2024-12-21
2024-12-21
2024-12-21
2024-12-21
2024-12-20
2024-12-20
2024-12-19