AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


Qwen,永远不会缺席!百万上下文模型开源
发布日期:2025-01-27 14:51:19 浏览次数: 1664 来源:NLP前沿
推荐语

Qwen,引领AI模型新纪元!性能与效率的完美结合。

核心内容:
1. Qwen2.5-1M模型的开源,涵盖7B和14B两个尺寸
2. 集成稀疏注意力机制,推理速度显著提升
3. 训练策略及硬件依赖的详细说明,助力高效应用

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家

今天,Qwen2.5-1M模型开源。

2个尺寸,7B & 14B。开源并且,并结合vllm,集成了稀疏注意力机制,推理速度提升3到7倍。

  • 技术报告地址:https://qianwen-res.oss-cn-beijing.aliyuncs.com/Qwen2.5-1M/Qwen2_5_1M_Technical_Report.pdf
  • hf: https://huggingface.co/collections/Qwen/qwen25-1m-679325716327ec07860530ba

14B模型的大海捞针获得了全绿的成绩,7B仅少量错误

长度提升的同时,短序列的成绩依然保持优异!

训练策略: 逐步变长到256K。 然后使用长度外推,外推用到了DCA的策略,

DCA通过将大的相对位置,按chunk分组,映射为较小的值

最后是硬件依赖:

对于处理 1M 长度的序列:

  • Qwen2.5-7B-Instruct-1M:至少需要 120GB 显存(多 GPU 总和)。
  • Qwen2.5-14B-Instruct-1M:至少需要 320GB 显存(多 GPU 总和)。

如果 GPU 显存不满足以上要求,仍然可以使用 Qwen2.5-1M 进行较短任务的处理。

最后,祝大家新年快乐!



53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询