微信扫码
与创始人交个朋友
我要投稿
就在刚刚,Qwen 开源了其最新版本模型 Qwen2.5 全家桶:
Qwen2.5: 0.5B、1.5B、3B、7B、14B、32B 和 72B
Qwen2.5-Coder:1.5B、7B 和 32B(即将发布)
Qwen2.5-Math:1.5B、7B 和 72B。
Qwen API 大降价,低至 1 折(Qwen Turbo 的输出)
在线体验
https://huggingface.co/spaces/Qwen/Qwen2.5
相关报告
https://qwenlm.github.io/zh/blog/qwen2.5/
开源协议
除 3B 和 72B 外,均通过 Apache 2.0 协议进行开源
原价格(每千 token)
输入 0.04 元,输出 0.12 元
现价格(每千 token)
输入 0.02 元,输出 0.02 元
原价格(每千 token)
输入 0.004 元,输出 0.012 元
现价格(每千 token)
输入 0.0008 元,输出 0.002 元
原价格(每千 token)
输入 0.002 元,输出 0.006 元
现价格(每千 token)
输入 0.003 元,输出 0.0006 元
在开源模型中,最大杯的 Qwen2.5-72B,在参数中超过众多开源模型
在 API 中,从参数上看,Qwen-Plus 显著优于 DeepSeek-V2.5,并且在与 Llama-3.1-405B 的竞争中表现出了竞争力,尽管在某些方面仍不及 GPT4-o 和 Claude-3.5-Sonnet。
对于开源的 Qwen2.5-14B 和 Qwen2.5-32B,在同等量级的模型中,颇具竞争力,如 Phi-3.5-MoE-Instruct 和 Gemma2-27B-IT。
基于 API 的 Qwen2.5-Turbo 的性能极具竞争力,同时提供了成本效益高且快速的服务。
对于小模型 Qwen2.5-3B,仅凭约 3B 参数便实现了 Llama-3 8B 的性能。
Qwen2.5-Coder 是为编程特别设计的模型,基准测试数据如下:
Qwen2.5-Coder 最多 128K tokens 上下文,支持 92 种编程语言。
本次开源的 7B 版本 Qwen2.5-Coder,甚至打败了更大尺寸的 DeepSeek-Coder-V2-Lite 和 Codestral-20B,成为当前最强大的基础代码模型之一。
Qwen2.5-Coder-Instruct 是 Qwen2.5-Coder 的指令微调版,在更多的评估中体现出了卓越的泛化性。
特别的,Qwen2.5-Coder-Instruct 在几个方面表现非常突出:
多语言编程能力很强
代码推理能力出色
3. 数学能力和基础能力都很强
比以往模型,Qwen2.5-Math 在更大规模的数学相关数据上进行了预训练,包括由 Qwen2-Math 生成的合成数据。此外,这一次我们增加了对中文的支持,并通过赋予其进行 CoT(Chain of Thought)、PoT(Program of Thought)和 TIR(Tool-Integrated Reasoning)的能力来加强其推理能力。
Qwen2.5-Math-72B-Instruct 的整体性能超越了 Qwen2-Math-72B-Instruct 和 GPT4-o,甚至是非常小的专业模型如 Qwen2.5-Math-1.5B-Instruct 也能在与大型语言模型的竞争中取得高度竞争力的表现。
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-05-06
2024-07-25
2024-08-13
2024-06-12
2024-07-11
2024-06-16
2024-07-20
2024-09-20
2024-06-15
2024-07-25
2024-12-20
2024-12-19
2024-11-22
2024-11-19
2024-11-13
2024-11-13
2024-10-07
2024-09-22