微信扫码
添加专属顾问
我要投稿
探索qwen3系列模型,体验多语言和混合思维模式的强大能力。核心内容:1. qwen3系列模型架构概览,包含密集型和混合专家型模型2. 混合思维模式,灵活控制模型思考程度3. 旗舰模型Qwen3-235B-A22B在多个基准测试中的出色表现
字数 919,阅读大约需 5 分钟
思考模式
和非思考模式
,使用户能够根据具体任务控制模型进行思考的程度
密集模型
MoE 模型
从官方公布的基准测试看,
旗舰模型
Qwen3-235B-A22B
在代码
、数学
、通用能力
等基准测试中,与 DeepSeek-R1、o1、o3-mini、Grok-3 和 Gemini-2.5-Pro 等顶级模型相比,表现出极具竞争力的结果。此外,小型 MoE 模型Qwen3-30B-A3B
的激活参数数量是 QwQ-32B 的 10%,表现更胜一筹,甚至像 Qwen3-4B 这样的小模型也能匹敌 Qwen2.5-72B-Instruct 的性能。
Qwen3 使用约 36 万亿 Token,在预训练阶段分为 3 步:
在后训练分为 4 步
大规模强化学习
,利用基于规则的奖励来增强模型的探索和钻研能力qwen3 模型需要 ollama v0.6.6 或更高版本,先把 Linux 上的 ollama 升级到 v0.6.6:
wget https://github.com/ollama/ollama/releases/download/v0.6.6/ollama-linux-amd64.tgz
sudo systemctl stop ollama
sudo rm -rf /usr/lib/ollama
sudo tar -C /usr -xzf ollama-linux-amd64.tgz
sudo systemctl start ollama
升级完后,下载 qwen3:8b
模型,大小在 5.2G
$ ollama pull qwen3:8b
pulling manifest
pulling a3de86cd1c13: 100% ▕████████████████████████████████████████████████████████████████████████████████████████████████████████▏ 5.2 GB
pulling eb4402837c78: 100% ▕████████████████████████████████████████████████████████████████████████████████████████████████████████▏ 1.5 KB
pulling d18a5cc71b84: 100% ▕████████████████████████████████████████████████████████████████████████████████████████████████████████▏ 11 KB
pulling cff3f395ef37: 100% ▕████████████████████████████████████████████████████████████████████████████████████████████████████████▏ 120 B
pulling 05a61d37b084: 100% ▕████████████████████████████████████████████████████████████████████████████████████████████████████████▏ 487 B
verifying sha256 digest
writing manifest
success
配置好模型后,在 LobeChat 中使用 qwen3:8b
看下实际效果:
在内容分类方面,DeepSeek-R1:14B 和 qwen3:8b 旗鼓相当。
在内容分类方面,DeepSeek-R1:14B 吊打 qwen3:8b。
总的来说各有千秋,要根据实际效果选择模型。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-08-13
2024-06-13
2024-08-21
2024-09-23
2024-07-31
2024-05-28
2024-08-04
2024-04-26
2024-07-09
2024-09-17
2025-04-29
2025-04-28
2025-04-28
2025-04-28
2025-04-28
2025-04-28
2025-04-27
2025-04-25